論文の概要: ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model
- arxiv url: http://arxiv.org/abs/2404.11962v1
- Date: Thu, 18 Apr 2024 07:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:31:17.724324
- Title: ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model
- Title(参考訳): テキスト・ツー・イメージ・モデルにおけるヒューマンコンテンツ著作権保護のためのプラグイン認証
- Authors: Chao Zhou, Huishuai Zhang, Jiang Bian, Weiming Zhang, Nenghai Yu,
- Abstract要約: 最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
- 参考スコア(独自算出の注目度): 71.47762442337948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the contentious issue of copyright infringement in images generated by text-to-image models, sparking debates among AI developers, content creators, and legal entities. State-of-the-art models create high-quality content without crediting original creators, causing concern in the artistic community. To mitigate this, we propose the \copyright Plug-in Authorization framework, introducing three operations: addition, extraction, and combination. Addition involves training a \copyright plug-in for specific copyright, facilitating proper credit attribution. Extraction allows creators to reclaim copyright from infringing models, and combination enables users to merge different \copyright plug-ins. These operations act as permits, incentivizing fair use and providing flexibility in authorization. We present innovative approaches,"Reverse LoRA" for extraction and "EasyMerge" for seamless combination. Experiments in artist-style replication and cartoon IP recreation demonstrate \copyright plug-ins' effectiveness, offering a valuable solution for human copyright protection in the age of generative AIs.
- Abstract(参考訳): 本稿では、テキスト・ツー・イメージ・モデルが生成した画像における著作権侵害に関する批判的な問題に対処し、AI開発者、コンテンツ制作者、法的団体の間で議論を巻き起こした。
最先端のモデルはオリジナルクリエーターを信用せずに高品質なコンテンツを作成し、芸術コミュニティに懸念を与えている。
これを軽減するために、我々は、追加、抽出、組み合わせの3つの操作を導入し、‘copyright Plug-in Authorization framework’を提案する。
追加には、特定の著作権のために \copyright プラグインをトレーニングすることが含まれる。
抽出により、クリエイターは著作権を侵害するモデルから回復でき、組み合わせることでユーザーは異なる‘copyrightプラグインをマージできる。
これらの操作は許可として機能し、公正使用のインセンティブを与え、認可の柔軟性を提供する。
本稿では,抽出のための"Reverse LoRA"とシームレスな組み合わせのための"EasyMerge"を提案する。
アーティストスタイルの複製と漫画のIPレクリエーションの実験は、生成AIの時代において人間の著作権保護のための貴重なソリューションを提供する、‘copyright Plug-ins’の有効性を示す。
関連論文リスト
- A Dataset and Benchmark for Copyright Protection from Text-to-Image Diffusion Models [51.5808323691985]
安定した拡散によって生成されたコンテンツと著作権保護下のコンテンツの潜在的な相関性を評価する体系的な研究の欠如がある。
この作業は、著作権保護に関する最初の大規模標準化データセットとベンチマークを提供する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - On Copyright Risks of Text-to-Image Diffusion Models [31.982360758956034]
拡散モデルは、テキストプロンプト(T2I)生成と呼ばれるタスクである、テキストプロンプトからのイメージの作成において優れている。
近年,直接的かつ著作権のあるプロンプトを用いた拡散モデルの著作権行動に関する研究が行われている。
私たちの研究は、間接的なプロンプトでさえ著作権問題を引き起こすような、より微妙な形態の侵害を調べることで、これを拡張しています。
論文 参考訳(メタデータ) (2023-09-15T01:34:02Z) - Can Copyright be Reduced to Privacy? [23.639303165101385]
アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、そのようなコピーは必ずしも著作権侵害を構成するものではない、と我々は主張する。
著作権侵害の確立の基準として採択された場合、アルゴリズム的安定性は著作権法の意図された目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z) - Are You Copying My Model? Protecting the Copyright of Large Language
Models for EaaS via Backdoor Watermark [58.60940048748815]
企業は大規模な言語モデル(LLM)に基づいたEmbeddding as a Service(E)の提供を開始した。
Eはモデル抽出攻撃に弱いため、LLMの所有者に重大な損失をもたらす可能性がある。
埋め込みにバックドアを埋め込むEmbMarkerという埋め込み透かし手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T08:28:54Z) - A Plug-and-Play Defensive Perturbation for Copyright Protection of
DNN-based Applications [1.4226119891617357]
DNNベースのアプリケーション(スタイル転送)に対する防御的摂動に基づくプラグアンドプレイ見えない著作権保護手法を提案する。
我々は,著作権情報を設計した著作権エンコーダで防御的摂動に投影し,保護対象の画像に追加する。
そして,発明した著作権復号器を用いて,符号化された著作権画像から著作権情報を抽出する。
論文 参考訳(メタデータ) (2023-04-20T23:57:39Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。