論文の概要: Foundation Models and Fair Use
- arxiv url: http://arxiv.org/abs/2303.15715v1
- Date: Tue, 28 Mar 2023 03:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 16:31:07.848477
- Title: Foundation Models and Fair Use
- Title(参考訳): 基礎モデルとフェアユース
- Authors: Peter Henderson, Xuechen Li, Dan Jurafsky, Tatsunori Hashimoto, Mark
A. Lemley, Percy Liang
- Abstract要約: 米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
- 参考スコア(独自算出の注目度): 96.04664748698103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing foundation models are trained on copyrighted material. Deploying
these models can pose both legal and ethical risks when data creators fail to
receive appropriate attribution or compensation. In the United States and
several other countries, copyrighted content may be used to build foundation
models without incurring liability due to the fair use doctrine. However, there
is a caveat: If the model produces output that is similar to copyrighted data,
particularly in scenarios that affect the market of that data, fair use may no
longer apply to the output of the model. In this work, we emphasize that fair
use is not guaranteed, and additional work may be necessary to keep model
development and deployment squarely in the realm of fair use. First, we survey
the potential risks of developing and deploying foundation models based on
copyrighted content. We review relevant U.S. case law, drawing parallels to
existing and potential applications for generating text, source code, and
visual art. Experiments confirm that popular foundation models can generate
content considerably similar to copyrighted material. Second, we discuss
technical mitigations that can help foundation models stay in line with fair
use. We argue that more research is needed to align mitigation strategies with
the current state of the law. Lastly, we suggest that the law and technical
mitigations should co-evolve. For example, coupled with other policy
mechanisms, the law could more explicitly consider safe harbors when strong
technical tools are used to mitigate infringement harms. This co-evolution may
help strike a balance between intellectual property and innovation, which
speaks to the original goal of fair use. But we emphasize that the strategies
we describe here are not a panacea and more work is needed to develop policies
that address the potential harms of foundation models.
- Abstract(参考訳): 既存の基礎モデルは著作権のある素材で訓練されている。
これらのモデルのデプロイは、データ作成者が適切な属性や報酬を受け取れない場合に、法的および倫理的リスクをもたらす可能性がある。
米国や他のいくつかの国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
特にそのデータの市場に影響を与えるシナリオにおいて、モデルが著作権付きデータに類似した出力を生成する場合、モデルの出力にフェアユースが適用されなくなる可能性がある。
本研究では、フェアユースを保証せず、フェアユースの観点からモデル開発とデプロイメントを正方形に保つために追加の作業が必要であることを強調する。
まず,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
我々は、テキスト、ソースコード、ビジュアルアートを生成するための既存および潜在的なアプリケーションと並行して、関連するアメリカの事例法をレビューする。
実験により、人気のある基礎モデルが著作権素材とかなり類似したコンテンツを生成できることが確認された。
第二に、基礎モデルが公正な使用に沿うのに役立つ技術的緩和について論じる。
我々は、緩和戦略を現行法に合わせるためには、さらなる研究が必要であると主張している。
最後に、法律と技術的緩和は共進化すべきだと提案する。
例えば、他の政策機構と組み合わせることで、法律は、侵害の被害を軽減するために強力な技術ツールを使用する場合に、より明確に安全な港を考えることができる。
この共同進化は、知的財産とイノベーションのバランスを取るのに役立つかもしれない。
しかし、ここで述べる戦略は万能ではなく、基礎モデルの潜在的な害に対処する政策を開発するためにより多くの作業が必要であることを強調する。
関連論文リスト
- Copyright Protection in Generative AI: A Technical Perspective [38.83972444347874]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - Probabilistic Copyright Protection Can Fail for Text-to-Image Generative
Models [31.22093990185084]
我々は,新しいオンラインアタックフレームワークであるVirtually Assured Amplification Attack (VA3)を紹介する。
VA3は、生成モデルとの持続的な相互作用において、侵害するコンテンツを生成する確率を増幅する。
提案手法の有効性を理論的および実験的に検証した。
論文 参考訳(メタデータ) (2023-11-29T12:10:00Z) - Tokenized Model: A Blockchain-Empowered Decentralized Model Ownership
Verification Platform [27.663600307841982]
本稿では、モデル透かし技術とブロックチェーンを組み合わせることにより、統一されたモデル著作権保護プラットフォームを構築することを検討する。
Tokenized Modelと呼ばれる新しいソリューションによって、信頼性の高いオーナシップレコードと検証メカニズムによって、モデルの著作権を保護します。
論文 参考訳(メタデータ) (2023-11-27T09:02:57Z) - SILO Language Models: Isolating Legal Risk In a Nonparametric Datastore [125.06066299987106]
推論中にこのリスクパフォーマンストレードオフを管理する新しい言語モデルであるSILOを提案する。
SILOは(1)オープンライセンスコーパス(OLC)上でパラメトリックLMをトレーニングすることで構築されます。
データストアへのアクセスはドメインのパフォーマンスを大幅に改善し、PileでトレーニングされたLMでパフォーマンスギャップの90%を閉じる。
論文 参考訳(メタデータ) (2023-08-08T17:58:15Z) - Can Copyright be Reduced to Privacy? [24.28377873526068]
プライバシーと著作権の間には、見落としてはいけない根本的な違いがある、と我々は主張する。
アルゴリズムの安定性が著作権侵害の標準として採用されれば、著作権法を意図した目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z) - FedRight: An Effective Model Copyright Protection for Federated Learning [3.387494280613737]
フェデレートラーニング(FL)はモデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
FLの著作権保護の問題を初めて定式化した。
我々はモデル指紋に基づくモデル著作権を保護するためにFedRightを提案する。
論文 参考訳(メタデータ) (2023-03-18T11:47:54Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。