論文の概要: Can Copyright be Reduced to Privacy?
- arxiv url: http://arxiv.org/abs/2305.14822v1
- Date: Wed, 24 May 2023 07:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 18:40:08.394249
- Title: Can Copyright be Reduced to Privacy?
- Title(参考訳): 著作権はプライバシーに還元できるか?
- Authors: Niva Elkin-Koren and Uri Hacohen and Roi Livni and Shay Moran
- Abstract要約: プライバシーと著作権の間には、見落としてはいけない根本的な違いがある、と我々は主張する。
アルゴリズムの安定性が著作権侵害の標準として採用されれば、著作権法を意図した目的を損なう可能性がある。
- 参考スコア(独自算出の注目度): 24.28377873526068
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: There is an increasing concern that generative AI models may produce outputs
that are remarkably similar to the copyrighted input content on which they are
trained. This worry has escalated as the quality and complexity of generative
models have immensely improved, and the availability of large datasets
containing copyrighted material has increased. Researchers are actively
exploring strategies to mitigate the risk of producing infringing samples, and
a recent line of work suggests to employ techniques such as differential
privacy and other forms of algorithmic stability to safeguard copyrighted
content.
In this work, we examine the question whether algorithmic stability
techniques such as differential privacy are suitable to ensure the responsible
use of generative models without inadvertently violating copyright laws. We
argue that there are fundamental differences between privacy and copyright that
should not be overlooked. In particular we highlight that although algorithmic
stability may be perceived as a practical tool to detect copying, it does not
necessarily equate to copyright protection. Therefore, if it is adopted as
standard for copyright infringement, it may undermine copyright law intended
purposes.
- Abstract(参考訳): 生成型AIモデルが、トレーニングされた著作権された入力コンテンツと著しく類似した出力を生成するのではないかという懸念が高まっている。
この懸念は、生成モデルの品質と複雑さが大幅に改善され、著作権物質を含む大規模なデータセットが利用可能になったためエスカレートしている。
研究者は、侵害するサンプルを生産するリスクを軽減するための戦略を積極的に検討しており、最近の研究は、著作権のあるコンテンツを保護するために微分プライバシーやその他のアルゴリズムの安定性のような手法を採用することを示唆している。
本研究では, 著作権法を不当に侵害することなく, 生成モデルの責任性を確保するために, 差分プライバシーなどのアルゴリズム的安定性技術が適切かどうかを考察する。
プライバシーと著作権には根本的な違いがあり、見落としるべきではない。
特に、アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、必ずしも著作権保護に等しいものではないことを強調する。
したがって、著作権侵害の標準として採用されれば、著作権法を意図した目的を損なう可能性がある。
関連論文リスト
- JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - Copyright Protection in Generative AI: A Technical Perspective [38.83972444347874]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection [19.140822655858873]
著作権保護とタンパー非依存のローカライゼーションを統合するために,プロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
実験により, EditGuardは, 様々なAIGCに基づく改ざん手法に対して, 改ざん精度, 著作権回復精度, 一般化可能性のバランスをとることを示した。
論文 参考訳(メタデータ) (2023-12-12T15:41:24Z) - Copyright Violations and Large Language Models [10.251605253237491]
本研究は,動詞の暗記のレンズを通して,著作権侵害や大規模言語モデルの問題を探究する。
一般的な書籍のコレクションやコーディング問題に対して,さまざまな言語モデルを用いて実験を行った。
本研究は,著作権規制の遵守を確実にするために,自然言語処理のさらなる検討の必要性と今後の発展への潜在的影響を強調した。
論文 参考訳(メタデータ) (2023-10-20T19:14:59Z) - Domain Watermark: Effective and Harmless Dataset Copyright Protection is
Closed at Hand [96.26251471253823]
バックドアベースのデータセットオーナシップ検証(DOV)は現在、オープンソースデータセットの著作権を保護するための唯一の実現可能なアプローチである。
我々は、(保護されたデータセットでトレーニングされた)ウォーターマークされたモデルを、良質なモデルによって誤って分類されるであろう、いくつかの難しい'サンプルを正しく分類する。
論文 参考訳(メタデータ) (2023-10-09T11:23:05Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - A Plug-and-Play Defensive Perturbation for Copyright Protection of
DNN-based Applications [1.4226119891617357]
DNNベースのアプリケーション(スタイル転送)に対する防御的摂動に基づくプラグアンドプレイ見えない著作権保護手法を提案する。
我々は,著作権情報を設計した著作権エンコーダで防御的摂動に投影し,保護対象の画像に追加する。
そして,発明した著作権復号器を用いて,符号化された著作権画像から著作権情報を抽出する。
論文 参考訳(メタデータ) (2023-04-20T23:57:39Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。