論文の概要: Anti-DreamBooth: Protecting users from personalized text-to-image
synthesis
- arxiv url: http://arxiv.org/abs/2303.15433v1
- Date: Mon, 27 Mar 2023 17:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 13:58:16.023186
- Title: Anti-DreamBooth: Protecting users from personalized text-to-image
synthesis
- Title(参考訳): Anti-DreamBooth: パーソナライズされたテキストと画像の合成からユーザを保護する
- Authors: Thanh Van Le, Hao Phung, Thuan Hoang Nguyen, Quan Dao, Ngoc Tran, Anh
Tran
- Abstract要約: 誤用された場合、DreamBoothは偽のニュースや、個々の犠牲者をターゲットにしたコンテンツを生成することができる。
本稿では,このような悪質なDreamBoothの使用に対するアンチドリームBoothと呼ばれる防衛システムについて検討する。
当社の手法は,これらのモデルの悪用からユーザを効果的に保護する。
- 参考スコア(独自算出の注目度): 2.446672595462589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-image diffusion models are nothing but a revolution, allowing anyone,
even without design skills, to create realistic images from simple text inputs.
With powerful personalization tools like DreamBooth, they can generate images
of a specific person just by learning from his/her few reference images.
However, when misused, such a powerful and convenient tool can produce fake
news or disturbing content targeting any individual victim, posing a severe
negative social impact. In this paper, we explore a defense system called
Anti-DreamBooth against such malicious use of DreamBooth. The system aims to
add subtle noise perturbation to each user's image before publishing in order
to disrupt the generation quality of any DreamBooth model trained on these
perturbed images. We investigate a wide range of algorithms for perturbation
optimization and extensively evaluate them on two facial datasets over various
text-to-image model versions. Despite the complicated formulation of DreamBooth
and Diffusion-based text-to-image models, our methods effectively defend users
from the malicious use of those models. Their effectiveness withstands even
adverse conditions, such as model or prompt/term mismatching between training
and testing. Our code will be available at
\href{https://github.com/VinAIResearch/Anti-DreamBooth.git}{https://github.com/VinAIResearch/Anti-DreamBooth.git}.
- Abstract(参考訳): テキストから画像への拡散モデルは革命に過ぎず、デザインスキルがなくても誰でも簡単なテキスト入力からリアルなイメージを作成できる。
dreamboothのような強力なパーソナライズツールを使えば、少数の参照画像から学ぶだけで特定の人物の画像を生成できる。
しかし、悪用された場合、そのような強力で便利なツールは、偽ニュースや個々の被害者をターゲットにしたコンテンツを妨害し、深刻な社会的影響をもたらす可能性がある。
本稿では,このような悪質なDreamBoothの使用に対するアンチドリームBoothと呼ばれる防衛システムについて検討する。
このシステムは,各ユーザの画像に微妙なノイズ摂動を加えることで,これらの摂動画像に基づいてトレーニングされたドリームブースモデルの生成品質を損なうことを目的としている。
摂動最適化のための幅広いアルゴリズムを調査し、様々なテキストから画像へのモデルバージョンで2つの顔データセット上で広範囲に評価した。
dreambooth と diffusion-based text-to-image モデルの複雑な定式化にもかかわらず,これらのモデルの悪意のある利用からユーザを効果的に保護する手法である。
その効果は、モデルやトレーニングとテストの間の迅速/短期のミスマッチなど、悪条件にも耐えうる。
私たちのコードは、 \href{https://github.com/VinAIResearch/Anti-DreamBooth.git}{https://github.com/VinAIResearch/Anti-DreamBooth.git}で利用可能になります。
関連論文リスト
- Natural Language Induced Adversarial Images [14.415478695871604]
本稿では,自然言語による逆画像攻撃手法を提案する。
中心となる考え方は、入力プロンプトが与えられた逆画像を生成するために、テキスト・ツー・イメージモデルを活用することである。
実験の結果,"foggy","humid","stretching"などの高周波意味情報が誤りを生じやすいことがわかった。
論文 参考訳(メタデータ) (2024-10-11T08:36:07Z) - High-Frequency Anti-DreamBooth: Robust Defense against Personalized Image Synthesis [12.555117983678624]
本稿では, 画像の高周波領域に強い摂動を付加し, 対向的浄化をより堅牢にする新たな対向的攻撃法を提案する。
実験の結果, 敵画像は, 敵画像の浄化後もノイズを保ち, 悪意のある画像生成を妨げていることがわかった。
論文 参考訳(メタデータ) (2024-09-12T15:58:28Z) - Backdooring Bias into Text-to-Image Models [16.495996266157274]
敵がバックドア攻撃によって任意のバイアスを加えることで、良質なユーザーが画像を生成することさえも影響することを示した。
私たちの攻撃は、テキストプロンプトで与えられた意味情報を保存しているため、ステルス状態のままです。
我々は、現在の最先端の生成モデルが、この攻撃を安価かつあらゆる敵に対して実現可能であることを示す。
論文 参考訳(メタデータ) (2024-06-21T14:53:19Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Text-image guided Diffusion Model for generating Deepfake celebrity
interactions [50.37578424163951]
拡散モデルは近年、非常にリアルなビジュアルコンテンツ生成を実証している。
本稿では,その点において新しい手法を考案し,検討する。
提案手法により, 現実感を脅かすことなく, 偽の視覚コンテンツを作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-26T08:24:37Z) - Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking [67.60174799881597]
本稿では,透かし情報を対象概念に埋め込んで,その概念に基づいて生成された画像から抽出する新しい概念透かしを提案する。
実際には、コンセプトオーナは、自身のコンセプトを異なる透かし(e, serial number)をプラットフォームにアップロードすることができ、プラットフォームは異なるシリアル番号を、その後の追跡と法医学のために割り当てる。
論文 参考訳(メタデータ) (2023-09-12T03:33:13Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - DreamArtist: Towards Controllable One-Shot Text-to-Image Generation via
Positive-Negative Prompt-Tuning [85.10894272034135]
大規模テキスト・画像生成モデルは,高解像度の高画質な高画質特徴画像の合成において,顕著な進歩を遂げている。
最近の試みでは、参照画像集合から事前学習された拡散モデルの概念を教えるための微調整戦略や急速調整戦略が採用されている。
本稿では,DreamArtistという,肯定的かつ効果的な学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T10:37:56Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。