論文の概要: Foundation Models and Fair Use
- arxiv url: http://arxiv.org/abs/2303.15715v1
- Date: Tue, 28 Mar 2023 03:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 16:31:07.848477
- Title: Foundation Models and Fair Use
- Title(参考訳): 基礎モデルとフェアユース
- Authors: Peter Henderson, Xuechen Li, Dan Jurafsky, Tatsunori Hashimoto, Mark
A. Lemley, Percy Liang
- Abstract要約: 米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
- 参考スコア(独自算出の注目度): 96.04664748698103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing foundation models are trained on copyrighted material. Deploying
these models can pose both legal and ethical risks when data creators fail to
receive appropriate attribution or compensation. In the United States and
several other countries, copyrighted content may be used to build foundation
models without incurring liability due to the fair use doctrine. However, there
is a caveat: If the model produces output that is similar to copyrighted data,
particularly in scenarios that affect the market of that data, fair use may no
longer apply to the output of the model. In this work, we emphasize that fair
use is not guaranteed, and additional work may be necessary to keep model
development and deployment squarely in the realm of fair use. First, we survey
the potential risks of developing and deploying foundation models based on
copyrighted content. We review relevant U.S. case law, drawing parallels to
existing and potential applications for generating text, source code, and
visual art. Experiments confirm that popular foundation models can generate
content considerably similar to copyrighted material. Second, we discuss
technical mitigations that can help foundation models stay in line with fair
use. We argue that more research is needed to align mitigation strategies with
the current state of the law. Lastly, we suggest that the law and technical
mitigations should co-evolve. For example, coupled with other policy
mechanisms, the law could more explicitly consider safe harbors when strong
technical tools are used to mitigate infringement harms. This co-evolution may
help strike a balance between intellectual property and innovation, which
speaks to the original goal of fair use. But we emphasize that the strategies
we describe here are not a panacea and more work is needed to develop policies
that address the potential harms of foundation models.
- Abstract(参考訳): 既存の基礎モデルは著作権のある素材で訓練されている。
これらのモデルのデプロイは、データ作成者が適切な属性や報酬を受け取れない場合に、法的および倫理的リスクをもたらす可能性がある。
米国や他のいくつかの国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
特にそのデータの市場に影響を与えるシナリオにおいて、モデルが著作権付きデータに類似した出力を生成する場合、モデルの出力にフェアユースが適用されなくなる可能性がある。
本研究では、フェアユースを保証せず、フェアユースの観点からモデル開発とデプロイメントを正方形に保つために追加の作業が必要であることを強調する。
まず,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
我々は、テキスト、ソースコード、ビジュアルアートを生成するための既存および潜在的なアプリケーションと並行して、関連するアメリカの事例法をレビューする。
実験により、人気のある基礎モデルが著作権素材とかなり類似したコンテンツを生成できることが確認された。
第二に、基礎モデルが公正な使用に沿うのに役立つ技術的緩和について論じる。
我々は、緩和戦略を現行法に合わせるためには、さらなる研究が必要であると主張している。
最後に、法律と技術的緩和は共進化すべきだと提案する。
例えば、他の政策機構と組み合わせることで、法律は、侵害の被害を軽減するために強力な技術ツールを使用する場合に、より明確に安全な港を考えることができる。
この共同進化は、知的財産とイノベーションのバランスを取るのに役立つかもしれない。
しかし、ここで述べる戦略は万能ではなく、基礎モデルの潜在的な害に対処する政策を開発するためにより多くの作業が必要であることを強調する。
関連論文リスト
- Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - An Economic Solution to Copyright Challenges of Generative AI [35.37023083413299]
生成人工知能システムは、新しいテキスト、画像、ビデオ、その他のメディアを生成するために訓練されている。
このようなシステムは、データコントリビュータのトレーニングに関する著作権権に侵害されるのではないか、という懸念が高まっている。
本稿では,AI生成コンテンツ作成への貢献に比例して著作権所有者を補償する枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:10:38Z) - Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Can Copyright be Reduced to Privacy? [23.639303165101385]
アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、そのようなコピーは必ずしも著作権侵害を構成するものではない、と我々は主張する。
著作権侵害の確立の基準として採択された場合、アルゴリズム的安定性は著作権法の意図された目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z) - FedRight: An Effective Model Copyright Protection for Federated Learning [3.387494280613737]
フェデレートラーニング(FL)はモデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
FLの著作権保護の問題を初めて定式化した。
我々はモデル指紋に基づくモデル著作権を保護するためにFedRightを提案する。
論文 参考訳(メタデータ) (2023-03-18T11:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。