論文の概要: Divide-and-Conquer Attack: Harnessing the Power of LLM to Bypass the
Censorship of Text-to-Image Generation Model
- arxiv url: http://arxiv.org/abs/2312.07130v1
- Date: Tue, 12 Dec 2023 10:04:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:37:27.071352
- Title: Divide-and-Conquer Attack: Harnessing the Power of LLM to Bypass the
Censorship of Text-to-Image Generation Model
- Title(参考訳): 分割・分割攻撃:テキスト対画像生成モデルの検閲をバイパスするためにllmの力を利用する
- Authors: Yimo Deng, Huangxun Chen
- Abstract要約: 本稿では,最先端のテキスト・ツー・イメージモデルの安全性フィルタを回避するために,Divide-and-Conquer Attackを導入する。
我々の攻撃はLLMをテキスト変換のエージェントとして利用し、センシティブなテキストから敵のプロンプトを生成する。
評価の結果,SOTA DALLE-3をChatGPTに統合して非倫理的画像を生成することで,攻撃を回避できることが確認された。
- 参考スコア(独自算出の注目度): 1.820258835840759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generative models offer many innovative services but also raise
ethical concerns due to their potential to generate unethical images. Most
publicly available text-to-image models employ safety filters to prevent
unintended generation intents. In this work, we introduce the
Divide-and-Conquer Attack to circumvent the safety filters of state-of-the-art
text-to-image models. Our attack leverages LLMs as agents for text
transformation, creating adversarial prompts from sensitive ones. We have
developed effective helper prompts that enable LLMs to break down sensitive
drawing prompts into multiple harmless descriptions, allowing them to bypass
safety filters while still generating sensitive images. This means that the
latent harmful meaning only becomes apparent when all individual elements are
drawn together. Our evaluation demonstrates that our attack successfully
circumvents the closed-box safety filter of SOTA DALLE-3 integrated natively
into ChatGPT to generate unethical images. This approach, which essentially
uses LLM-generated adversarial prompts against GPT-4-assisted DALLE-3, is akin
to using one's own spear to breach their shield. It could have more severe
security implications than previous manual crafting or iterative model querying
methods, and we hope it stimulates more attention towards similar efforts. Our
code and data are available at:
https://github.com/researchcode001/Divide-and-Conquer-Attack
- Abstract(参考訳): テキスト・ツー・イメージ生成モデルは多くの革新的なサービスを提供しているが、非倫理的な画像を生成する可能性から倫理的な懸念も生んでいる。
ほとんどの一般公開されたテキストから画像へのモデルは、意図しない生成意図を防ぐために安全フィルタを使用している。
本稿では,最先端のテキスト・ツー・イメージモデルの安全フィルタを回避するために,分割・探索攻撃を提案する。
我々の攻撃はLLMをテキスト変換のエージェントとして利用し、センシティブなテキストから敵のプロンプトを生成する。
我々は,LLMを複数の無害な記述に分解し,機密画像を生成しながら,安全フィルタを回避できる効果的なヘルパープロンプトを開発した。
これは、潜在有害な意味は、全ての個々の要素が一緒に引かれるときにのみ明らかになることを意味する。
本評価は,chatgptにネイティブに統合されたsoma dalle-3のクローズドボックスセーフティフィルタを回避し,非倫理的な画像を生成することを実証する。
このアプローチは基本的に、LPMが生成したGPT-4を補助するDALLE-3に対して敵のプロンプトを使用するもので、自身の槍を使ってシールドを破ることに似ている。
従来の手作業や反復的なモデルクエリ手法よりも深刻なセキュリティ上の影響がある可能性があり、同様の取り組みにもっと注意を向けることを願っています。
私たちのコードとデータは、https://github.com/researchcode001/Divide-and-Conquer-Attack.comで利用可能です。
関連論文リスト
- Images are Achilles' Heel of Alignment: Exploiting Visual Vulnerabilities for Jailbreaking Multimodal Large Language Models [107.88745040504887]
マルチモーダル大言語モデル(MLLM)の無害アライメント問題について検討する。
そこで本研究では,テキスト入力における悪意のある意図の有害性を隠蔽し,増幅する,HADESという新しいジェイルブレイク手法を提案する。
実験の結果、HADESは既存のMLLMを効果的にジェイルブレイクし、LLaVA-1.5では90.26%、Gemini Pro Visionでは71.60%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-03-14T18:24:55Z) - ImgTrojan: Jailbreaking Vision-Language Models with ONE Image [40.55590043993117]
視覚言語モデル(VLM)に対する新しいジェイルブレイク攻撃を提案する。
トレーニングデータに有毒な(画像、テキスト)データペアを含めるシナリオが想定されます。
原文のキャプションを悪意のあるジェイルブレイクプロンプトに置き換えることにより、この手法は毒画像を用いてジェイルブレイク攻撃を行うことができる。
論文 参考訳(メタデータ) (2024-03-05T12:21:57Z) - From Noise to Clarity: Unraveling the Adversarial Suffix of Large
Language Model Attacks via Translation of Text Embeddings [64.26248561154509]
近年の研究では、有害な指示に接尾辞を付けることで、LSMの防御をハックできることが判明している。
本稿では,非可読な逆接尾辞をコヒーレントかつ可読なテキストに翻訳可能な逆接尾辞埋め込み翻訳フレームワーク(ASETF)を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:46:27Z) - PAL: Proxy-Guided Black-Box Attack on Large Language Models [55.57987172146731]
大規模言語モデル(LLM)は近年人気が高まっているが、操作時に有害なコンテンツを生成する能力を示している。
PAL(Proxy-Guided Attack on LLMs)は, ブラックボックスクエリのみの設定で, LLMに対する最初の最適化ベースの攻撃である。
GPT-3.5-Turboの攻撃成功率は84%,Llama-2-7Bの攻撃成功率は48%であった。
論文 参考訳(メタデータ) (2024-02-15T02:54:49Z) - FigStep: Jailbreaking Large Vision-language Models via Typographic
Visual Prompts [14.948652267916149]
大規模視覚言語モデル(VLM)に対するジェイルブレイクアルゴリズムであるFigStepを提案する。
FigStepはテキストに有害な指示を直接送る代わりに、タイポグラフィーによって有害なコンテンツを画像に変換する。
FigStepは10のトピックで500の有害なクエリに対して平均82.50%の攻撃成功率を達成することができる。
論文 参考訳(メタデータ) (2023-11-09T18:59:11Z) - Shadow Alignment: The Ease of Subverting Safely-Aligned Language Models [102.63973600144308]
オープンソースの大規模言語モデルは、有害なコンテンツを生成するために容易に変換できる。
5つの異なる組織がリリースした8つのモデルに対する実験は、シャドーアライメントアタックの有効性を実証している。
この研究は、悪意のある攻撃者に対するオープンソースのLLMの安全性を見直し、強化するための集団的な取り組みの発端となる。
論文 参考訳(メタデータ) (2023-10-04T16:39:31Z) - SurrogatePrompt: Bypassing the Safety Filter of Text-To-Image Models via
Substitution [22.882337899780968]
我々は、Midjourneyに対する最初の即時攻撃を開発し、その結果、豊富なNSFW画像が生成される。
我々のフレームワークであるSurrogatePromptは、大規模言語モデル、画像からテキスト、画像から画像へのモジュールを利用して、攻撃プロンプトを体系的に生成する。
その結果、Midjourneyのプロプライエタリな安全フィルタを攻撃プロンプトでバイパスして88%の成功率を明らかにした。
論文 参考訳(メタデータ) (2023-09-25T13:20:15Z) - Certifying LLM Safety against Adversarial Prompting [75.19953634352258]
大規模言語モデル(LLM)は、入力プロンプトに悪意のあるトークンを追加する敵攻撃に対して脆弱である。
我々は,認証された安全保証とともに,敵のプロンプトを防御する最初の枠組みである消去・チェックを導入する。
論文 参考訳(メタデータ) (2023-09-06T04:37:20Z) - Image Hijacks: Adversarial Images can Control Generative Models at Runtime [8.603201325413192]
推論時に視覚言語モデルの振る舞いを制御する画像ハイジャック, 逆画像を検出する。
Prompt Matching法を考案し、任意のユーザ定義テキストプロンプトの動作にマッチしたハイジャックをトレーニングする。
我々は、Behaviour Matchingを使って、4種類の攻撃に対してハイジャックを作らせ、VLMは敵の選択の出力を生成し、コンテキストウィンドウから情報をリークし、安全トレーニングをオーバーライドし、偽の声明を信じるように強制する。
論文 参考訳(メタデータ) (2023-09-01T03:53:40Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Red-Teaming the Stable Diffusion Safety Filter [5.683172456953383]
安全フィルタをバイパスする乱雑なコンテンツを容易に生成できることが示される。
将来のモデルリリースの安全性対策は、完全にオープンで適切に文書化されなければならない、と私たちは主張する。
論文 参考訳(メタデータ) (2022-10-03T14:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。