論文の概要: My Art My Choice: Adversarial Protection Against Unruly AI
- arxiv url: http://arxiv.org/abs/2309.03198v1
- Date: Wed, 6 Sep 2023 17:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 14:27:06.951352
- Title: My Art My Choice: Adversarial Protection Against Unruly AI
- Title(参考訳): 私の選択:非現実的なAIに対する敵対的保護
- Authors: Anthony Rhodes, Ram Bhagat, Umur Aybars Ciftci, Ilke Demir
- Abstract要約: My Art My Choice (MAMC) は、著作権のある資料が拡散モデルによって活用されるのを防ぎ、コンテンツ所有者を力づけることを目的としている。
MAMCは、逆向きに摂動した「保護された」画像を生成することを学び、それによって「破壊」拡散モデルを生成することができる。
- 参考スコア(独自算出の注目度): 1.2380394017076968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI is on the rise, enabling everyone to produce realistic content
via publicly available interfaces. Especially for guided image generation,
diffusion models are changing the creator economy by producing high quality low
cost content. In parallel, artists are rising against unruly AI, since their
artwork are leveraged, distributed, and dissimulated by large generative
models. Our approach, My Art My Choice (MAMC), aims to empower content owners
by protecting their copyrighted materials from being utilized by diffusion
models in an adversarial fashion. MAMC learns to generate adversarially
perturbed "protected" versions of images which can in turn "break" diffusion
models. The perturbation amount is decided by the artist to balance distortion
vs. protection of the content. MAMC is designed with a simple UNet-based
generator, attacking black box diffusion models, combining several losses to
create adversarial twins of the original artwork. We experiment on three
datasets for various image-to-image tasks, with different user control values.
Both protected image and diffusion output results are evaluated in visual,
noise, structure, pixel, and generative spaces to validate our claims. We
believe that MAMC is a crucial step for preserving ownership information for AI
generated content in a flawless, based-on-need, and human-centric way.
- Abstract(参考訳): ジェネレーティブAIは増加傾向にあり、誰でも公開インターフェースを通じてリアルなコンテンツを制作できる。
特に誘導画像生成では、拡散モデルは高品質な低コストコンテンツを生成することでクリエーター経済を変えつつある。
アートワークは大きな生成モデルによって活用され、分散され、シミュレーションされるため、アーティストは無秩序なaiに対して上昇しています。
当社のアプローチであるMy Art My Choice (MAMC) は,著作権のある資料が拡散モデルによって逆行的に活用されることを防ぎ,コンテンツ所有者を力づけることを目的としている。
mamcは、逆向きに摂動する「保護された」画像の拡散モデルを生成することを学ぶ。
アーティストによって摂動量を決定し、コンテンツに対する歪みと保護のバランスをとる。
mamcは単純なunetベースのジェネレータで設計され、ブラックボックス拡散モデルを攻撃し、いくつかの損失を組み合わせることでオリジナルのアートワークの敵対的双生児を創造する。
ユーザコントロールの異なる様々なタスクに対して,3つのデータセットを実験する。
保護された画像と拡散出力の結果は、視覚、ノイズ、構造、ピクセル、生成空間で評価され、クレームを検証する。
私たちは、MAMCがAIが生成したコンテンツの所有権情報を、欠陥なく、ベースオンワンで、人間中心の方法で保持するための重要なステップであると考えています。
関連論文リスト
- DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not A Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を悪用した特徴表現攻撃損失と,保護された画像の自然性を高めるための潜在最適化戦略を備えた,新たな攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Safeguard Text-to-Image Diffusion Models with Human Feedback Inversion [51.931083971448885]
本稿では,Human Feedback Inversion (HFI) というフレームワークを提案する。
実験の結果,画像品質を維持しながら,好ましくないコンテンツ生成を著しく削減し,公的な領域におけるAIの倫理的展開に寄与することが示された。
論文 参考訳(メタデータ) (2024-07-17T05:21:41Z) - DiffAM: Diffusion-based Adversarial Makeup Transfer for Facial Privacy Protection [60.73609509756533]
DiffAMは、基準画像から対向的な化粧を施した高品質な顔画像を生成するための新しいアプローチである。
実験の結果、DiffAMはブラックボックス設定で12.98%上昇し、視覚的品質の向上と攻撃の成功率の向上を実現している。
論文 参考訳(メタデータ) (2024-05-16T08:05:36Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Towards Prompt-robust Face Privacy Protection via Adversarial Decoupling
Augmentation Framework [20.652130361862053]
顔認識保護アルゴリズムの防御性能を高めるために,Adversarial Decoupling Augmentation Framework (ADAF)を提案する。
ADAFは、様々な攻撃プロンプトに対する防御安定のために、多レベルテキスト関連の拡張を導入している。
論文 参考訳(メタデータ) (2023-05-06T09:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。