論文の概要: My Art My Choice: Adversarial Protection Against Unruly AI
- arxiv url: http://arxiv.org/abs/2309.03198v1
- Date: Wed, 6 Sep 2023 17:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 14:27:06.951352
- Title: My Art My Choice: Adversarial Protection Against Unruly AI
- Title(参考訳): 私の選択:非現実的なAIに対する敵対的保護
- Authors: Anthony Rhodes, Ram Bhagat, Umur Aybars Ciftci, Ilke Demir
- Abstract要約: My Art My Choice (MAMC) は、著作権のある資料が拡散モデルによって活用されるのを防ぎ、コンテンツ所有者を力づけることを目的としている。
MAMCは、逆向きに摂動した「保護された」画像を生成することを学び、それによって「破壊」拡散モデルを生成することができる。
- 参考スコア(独自算出の注目度): 1.2380394017076968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI is on the rise, enabling everyone to produce realistic content
via publicly available interfaces. Especially for guided image generation,
diffusion models are changing the creator economy by producing high quality low
cost content. In parallel, artists are rising against unruly AI, since their
artwork are leveraged, distributed, and dissimulated by large generative
models. Our approach, My Art My Choice (MAMC), aims to empower content owners
by protecting their copyrighted materials from being utilized by diffusion
models in an adversarial fashion. MAMC learns to generate adversarially
perturbed "protected" versions of images which can in turn "break" diffusion
models. The perturbation amount is decided by the artist to balance distortion
vs. protection of the content. MAMC is designed with a simple UNet-based
generator, attacking black box diffusion models, combining several losses to
create adversarial twins of the original artwork. We experiment on three
datasets for various image-to-image tasks, with different user control values.
Both protected image and diffusion output results are evaluated in visual,
noise, structure, pixel, and generative spaces to validate our claims. We
believe that MAMC is a crucial step for preserving ownership information for AI
generated content in a flawless, based-on-need, and human-centric way.
- Abstract(参考訳): ジェネレーティブAIは増加傾向にあり、誰でも公開インターフェースを通じてリアルなコンテンツを制作できる。
特に誘導画像生成では、拡散モデルは高品質な低コストコンテンツを生成することでクリエーター経済を変えつつある。
アートワークは大きな生成モデルによって活用され、分散され、シミュレーションされるため、アーティストは無秩序なaiに対して上昇しています。
当社のアプローチであるMy Art My Choice (MAMC) は,著作権のある資料が拡散モデルによって逆行的に活用されることを防ぎ,コンテンツ所有者を力づけることを目的としている。
mamcは、逆向きに摂動する「保護された」画像の拡散モデルを生成することを学ぶ。
アーティストによって摂動量を決定し、コンテンツに対する歪みと保護のバランスをとる。
mamcは単純なunetベースのジェネレータで設計され、ブラックボックス拡散モデルを攻撃し、いくつかの損失を組み合わせることでオリジナルのアートワークの敵対的双生児を創造する。
ユーザコントロールの異なる様々なタスクに対して,3つのデータセットを実験する。
保護された画像と拡散出力の結果は、視覚、ノイズ、構造、ピクセル、生成空間で評価され、クレームを検証する。
私たちは、MAMCがAIが生成したコンテンツの所有権情報を、欠陥なく、ベースオンワンで、人間中心の方法で保持するための重要なステップであると考えています。
関連論文リスト
- ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - Organic or Diffused: Can We Distinguish Human Art from AI-generated
Images? [25.64143648796873]
AIが生成した画像を人間のアートから取り除くことは、難しい問題だ。
この問題に対処できないため、悪いアクターは、AIイメージを禁止したポリシーを掲げる人間芸術や企業に対してプレミアムを支払う個人を欺くことができる。
7つのスタイルにまたがって実際の人間のアートをキュレートし、5つの生成モデルからマッチング画像を生成し、8つの検出器を適用します。
論文 参考訳(メタデータ) (2024-02-05T17:25:04Z) - A Dataset and Benchmark for Copyright Protection from Text-to-Image Diffusion Models [51.5808323691985]
安定した拡散によって生成されたコンテンツと著作権保護下のコンテンツの潜在的な相関性を評価する体系的な研究の欠如がある。
この作業は、著作権保護に関する最初の大規模標準化データセットとベンチマークを提供する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - Measuring the Success of Diffusion Models at Imitating Human Artists [7.007492782620398]
モデルが特定のアーティストを模倣する能力を測定する方法を示す。
コントラスト言語-画像事前訓練(CLIP)エンコーダを用いてゼロショット方式で画像の分類を行う。
また,アーティストの作品のサンプルを,これらの模倣画像と高い統計的信頼性で一致させることができることを示す。
論文 参考訳(メタデータ) (2023-07-08T18:31:25Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Towards Prompt-robust Face Privacy Protection via Adversarial Decoupling
Augmentation Framework [20.652130361862053]
顔認識保護アルゴリズムの防御性能を高めるために,Adversarial Decoupling Augmentation Framework (ADAF)を提案する。
ADAFは、様々な攻撃プロンプトに対する防御安定のために、多レベルテキスト関連の拡張を導入している。
論文 参考訳(メタデータ) (2023-05-06T09:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。