論文の概要: On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI
- arxiv url: http://arxiv.org/abs/2402.05979v1
- Date: Wed, 7 Feb 2024 22:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:05:48.278128
- Title: On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI
- Title(参考訳): 行動利用宣言の標準化とAIの責任ライセンシングへの採用について
- Authors: Daniel McDuff, Tim Korjakow, Scott Cambo, Jesse Josua Benjamin, Jenny
Lee, Yacine Jernite, Carlos Mu\~noz Ferrandis, Aaron Gokaslan, Alek
Tarkowski, Joseph Lindley, A. Feder Cooper, Danish Contractor
- Abstract要約: 2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
- 参考スコア(独自算出の注目度): 27.748532981456464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing concerns over negligent or malicious uses of AI have increased the
appetite for tools that help manage the risks of the technology. In 2018,
licenses with behaviorial-use clauses (commonly referred to as Responsible AI
Licenses) were proposed to give developers a framework for releasing AI assets
while specifying their users to mitigate negative applications. As of the end
of 2023, on the order of 40,000 software and model repositories have adopted
responsible AI licenses licenses. Notable models licensed with behavioral use
clauses include BLOOM (language) and LLaMA2 (language), Stable Diffusion
(image), and GRID (robotics). This paper explores why and how these licenses
have been adopted, and why and how they have been adapted to fit particular use
cases. We use a mixed-methods methodology of qualitative interviews, clustering
of license clauses, and quantitative analysis of license adoption. Based on
this evidence we take the position that responsible AI licenses need
standardization to avoid confusing users or diluting their impact. At the same
time, customization of behavioral restrictions is also appropriate in some
contexts (e.g., medical domains). We advocate for ``standardized
customization'' that can meet users' needs and can be supported via tooling.
- Abstract(参考訳): 悪質で悪意のあるAIの使用に対する懸念が高まり、テクノロジーのリスクを管理するツールへの欲求が高まっている。
2018年、行動利用条項(一般的にResponsible AI Licensesと呼ばれる)を持つライセンスが提案され、開発者は、ネガティブなアプリケーションを軽減するためにユーザを指定しながら、AI資産をリリースするためのフレームワークを提供する。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
行動利用条項でライセンスされた著名なモデルはBLOOM(言語)とLLaMA2(言語)、安定拡散(画像)、GRID(ロボティクス)である。
本稿では,これらのライセンスが採用されている理由と適用方法,その適用理由について検討する。
我々は、質的なインタビュー、ライセンス条項のクラスタリング、およびライセンス導入の定量的分析の混合手法を用いる。
この証拠に基づいて、私たちは、責任あるAIライセンスがユーザーを混乱させたり、その影響を希薄にするのを避けるために標準化を必要とするという立場を取ります。
同時に、いくつかの文脈(例えば医療領域)では、行動制限のカスタマイズも適切である。
ユーザのニーズを満たし、ツーリングを通じてサポートできる‘標準化カスタマイズ’’を推奨しています。
関連論文リスト
- An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - A Path Towards Legal Autonomy: An interoperable and explainable approach to extracting, transforming, loading and computing legal information using large language models, expert systems and Bayesian networks [2.2192488799070444]
法的な自律性は、開発者やデプロイ者、ユーザといったAIアクターに制約を課すこと、あるいはAIエージェントが環境に与える影響の範囲と範囲に制約を課すことによって達成できる。
後者のアプローチでは、AI駆動デバイスに関する既存のルールを、それらのデバイスを制御するAIエージェントのソフトウェアにエンコードする。
このようなアプローチの有効性は、説明可能かつ法的に相互運用可能な法的情報を抽出、ロード、変換、計算する手法を必要とするため、これは課題である。
論文 参考訳(メタデータ) (2024-03-27T13:12:57Z) - From Instructions to Constraints: Language Model Alignment with
Automatic Constraint Verification [70.08146540745877]
NLPタスクの共通制約を調査し、それらの引数の型に基づいて、それらを3つのクラスに分類する。
本稿では,ACT(ConsTraintsのアラインメント)という統合フレームワークを提案し,制約に適応したユーザアライメントのための監視信号を自動的に生成する。
論文 参考訳(メタデータ) (2024-03-10T22:14:54Z) - ConstraintChecker: A Plugin for Large Language Models to Reason on
Commonsense Knowledge Bases [53.29427395419317]
コモンセンス知識ベース(CSKB)に対する推論は,新しいコモンセンス知識を取得する方法として検討されてきた。
我々は**ConstraintChecker*を提案します。
論文 参考訳(メタデータ) (2024-01-25T08:03:38Z) - Catch the Butterfly: Peeking into the Terms and Conflicts among SPDX
Licenses [16.948633594354412]
ソフトウェア開発におけるサードパーティライブラリ(TPL)は、モダンなソフトウェアの開発を加速している。
開発者は必然的にTPLのライセンスを侵害し、法的問題を引き起こす可能性がある。
幅広い主要なライセンスを含む高品質なライセンスデータセットが必要である。
論文 参考訳(メタデータ) (2024-01-19T11:27:34Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Can I use this publicly available dataset to build commercial AI
software? Most likely not [8.853674186565934]
商用AIソフトウェアを構築するために、与えられた公開データセットを使用する場合、ライセンスコンプライアンス違反の可能性を評価するための新しいアプローチを提案する。
その結果,これらの6つの研究データセットのうち5つは,ライセンス違反のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-11-03T17:44:06Z) - Behavioral Use Licensing for Responsible AI [11.821476868900506]
我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
論文 参考訳(メタデータ) (2020-11-04T09:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。