論文の概要: Can Copyright be Reduced to Privacy?
- arxiv url: http://arxiv.org/abs/2305.14822v1
- Date: Wed, 24 May 2023 07:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 18:40:08.394249
- Title: Can Copyright be Reduced to Privacy?
- Title(参考訳): 著作権はプライバシーに還元できるか?
- Authors: Niva Elkin-Koren and Uri Hacohen and Roi Livni and Shay Moran
- Abstract要約: プライバシーと著作権の間には、見落としてはいけない根本的な違いがある、と我々は主張する。
アルゴリズムの安定性が著作権侵害の標準として採用されれば、著作権法を意図した目的を損なう可能性がある。
- 参考スコア(独自算出の注目度): 24.28377873526068
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: There is an increasing concern that generative AI models may produce outputs
that are remarkably similar to the copyrighted input content on which they are
trained. This worry has escalated as the quality and complexity of generative
models have immensely improved, and the availability of large datasets
containing copyrighted material has increased. Researchers are actively
exploring strategies to mitigate the risk of producing infringing samples, and
a recent line of work suggests to employ techniques such as differential
privacy and other forms of algorithmic stability to safeguard copyrighted
content.
In this work, we examine the question whether algorithmic stability
techniques such as differential privacy are suitable to ensure the responsible
use of generative models without inadvertently violating copyright laws. We
argue that there are fundamental differences between privacy and copyright that
should not be overlooked. In particular we highlight that although algorithmic
stability may be perceived as a practical tool to detect copying, it does not
necessarily equate to copyright protection. Therefore, if it is adopted as
standard for copyright infringement, it may undermine copyright law intended
purposes.
- Abstract(参考訳): 生成型AIモデルが、トレーニングされた著作権された入力コンテンツと著しく類似した出力を生成するのではないかという懸念が高まっている。
この懸念は、生成モデルの品質と複雑さが大幅に改善され、著作権物質を含む大規模なデータセットが利用可能になったためエスカレートしている。
研究者は、侵害するサンプルを生産するリスクを軽減するための戦略を積極的に検討しており、最近の研究は、著作権のあるコンテンツを保護するために微分プライバシーやその他のアルゴリズムの安定性のような手法を採用することを示唆している。
本研究では, 著作権法を不当に侵害することなく, 生成モデルの責任性を確保するために, 差分プライバシーなどのアルゴリズム的安定性技術が適切かどうかを考察する。
プライバシーと著作権には根本的な違いがあり、見落としるべきではない。
特に、アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、必ずしも著作権保護に等しいものではないことを強調する。
したがって、著作権侵害の標準として採用されれば、著作権法を意図した目的を損なう可能性がある。
関連論文リスト
- RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - Not All Similarities Are Created Equal: Leveraging Data-Driven Biases to Inform GenAI Copyright Disputes [20.237329910319293]
本稿では,GenAIモデルの学習能力を利用した著作権法解析手法を提案する。
我々は、GenAIによって作成された作品の汎用性を特定するためのデータ駆動型アプローチを提案する。
著作権法における表現的汎用性を測定することの潜在的意味は深い。
論文 参考訳(メタデータ) (2024-03-26T13:32:32Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。