論文の概要: The Mirage of Artificial Intelligence Terms of Use Restrictions
- arxiv url: http://arxiv.org/abs/2412.07066v1
- Date: Tue, 10 Dec 2024 00:18:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:39:44.671926
- Title: The Mirage of Artificial Intelligence Terms of Use Restrictions
- Title(参考訳): 利用制限の人工知能用語のミラージュ
- Authors: Peter Henderson, Mark A. Lemley,
- Abstract要約: 人工知能(AI)モデル作成者は一般的に、モデルと出力の両方に制限的な使用規約を付ける。
本条は、AIモデルの使用規約の施行可能性について体系的に評価し、3つの貢献を行う。
- 参考スコア(独自算出の注目度): 4.314681767172961
- License:
- Abstract: Artificial intelligence (AI) model creators commonly attach restrictive terms of use to both their models and their outputs. These terms typically prohibit activities ranging from creating competing AI models to spreading disinformation. Often taken at face value, these terms are positioned by companies as key enforceable tools for preventing misuse, particularly in policy dialogs. But are these terms truly meaningful? There are myriad examples where these broad terms are regularly and repeatedly violated. Yet except for some account suspensions on platforms, no model creator has actually tried to enforce these terms with monetary penalties or injunctive relief. This is likely for good reason: we think that the legal enforceability of these licenses is questionable. This Article systematically assesses of the enforceability of AI model terms of use and offers three contributions. First, we pinpoint a key problem: the artifacts that they protect, namely model weights and model outputs, are largely not copyrightable, making it unclear whether there is even anything to be licensed. Second, we examine the problems this creates for other enforcement. Recent doctrinal trends in copyright preemption may further undermine state-law claims, while other legal frameworks like the DMCA and CFAA offer limited recourse. Anti-competitive provisions likely fare even worse than responsible use provisions. Third, we provide recommendations to policymakers. There are compelling reasons for many provisions to be unenforceable: they chill good faith research, constrain competition, and create quasi-copyright ownership where none should exist. There are, of course, downsides: model creators have fewer tools to prevent harmful misuse. But we think the better approach is for statutory provisions, not private fiat, to distinguish between good and bad uses of AI, restricting the latter.
- Abstract(参考訳): 人工知能(AI)モデル作成者は一般的に、モデルと出力の両方に制限的な使用規約を付ける。
これらの用語は通常、競合するAIモデルの作成から偽情報を広める活動を禁止する。
多くの場合、これらの用語は企業によって、特に政策ダイアログにおいて、誤用を防止するための重要な強制可能なツールとして位置づけられている。
しかし、これらの用語は本当に意味のあるものなのだろうか?
これらの幅広い用語を定期的に繰り返し違反する無数の例がある。
しかし、一部のプラットフォームでのアカウント停止を除いて、モデル作成者は実際にこれらの条件を金銭的な罰則や差し止め措置で強制しようとはしていない。
これらのライセンスの法的強制性には疑問があると思います。
本条は、AIモデルの使用規約の施行可能性について体系的に評価し、3つの貢献を行う。
まず、彼らが保護するアーティファクト、すなわちモデルウェイトとモデルアウトプットは、著作権がほとんどなく、ライセンスされるものさえあるかどうかもはっきりしない。
次に、他の執行機関が生み出す問題について検討する。
DMCAやCFAAのような他の法的枠組みは限定的なレコメンデーションを提供している。
反競争的条項は、責任ある使用規定よりもさらに悪いものとなる。
第3に、政策立案者に勧告を提供する。
善意の研究を冷やし、競争を制限し、誰も存在すべきでない準コピーライトの所有権を創り出す。
モデルクリエーターには有害な誤用を防ぐためのツールがほとんどありません。
しかし私たちは、AIの良質な使用と悪質な使用を区別し、後者を制限するために、私的なファイアットではなく、法定条項により良いアプローチがあると考えています。
関連論文リスト
- RL, but don't do anything I wouldn't do [65.17999604409634]
我々は、KL制約が、高度RLエージェントの挙動を制御するためにもはや信頼できないことを示す。
我々は,「何もしないで」という原則を「しないで」という原則に置き換えることで,この問題を回避する理論的な代替案を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:18:17Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI [27.748532981456464]
2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
論文 参考訳(メタデータ) (2024-02-07T22:29:42Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - Where's the Liability in Harmful AI Speech? [42.97651263209725]
機械学習の実践者は、問題のあるスピーチを特定するために、定期的に"レッドチーム"モデルをモデル化する。
我々は,3つの責任体制について検討し,これらをレッドチームモデル行動の一般的な例に結びつける。
これらのシナリオでは、AIは責任から分類的に免疫されてはならない、と私たちは主張する。
論文 参考訳(メタデータ) (2023-08-09T00:13:00Z) - Training Is Everything: Artificial Intelligence, Copyright, and Fair
Training [9.653656920225858]
著者: そうしたコンテンツを使ってAIエンジンをトレーニングしている企業は、そのような使用は「フェアユース」であるべきだと信じていることが多い。
著作者: 著作権所有者は、その支持者とともに、著作権のある著作物をAIのトレーニングセットに組み入れ、所有者の知的財産の誤った評価を構成することを検討する。
我々はこの議論の両側で強い議論と刺激的な議論の両方を識別する。
論文 参考訳(メタデータ) (2023-05-04T04:01:00Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Behavioral Use Licensing for Responsible AI [11.821476868900506]
我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
論文 参考訳(メタデータ) (2020-11-04T09:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。