論文の概要: Fooling the Watchers: Breaking AIGC Detectors via Semantic Prompt Attacks
- arxiv url: http://arxiv.org/abs/2505.23192v1
- Date: Thu, 29 May 2025 07:31:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.743165
- Title: Fooling the Watchers: Breaking AIGC Detectors via Semantic Prompt Attacks
- Title(参考訳): AIGC検出器をセマンティック・プロンプト・アタックで破壊する
- Authors: Run Hao, Peng Ying,
- Abstract要約: テキスト・トゥ・イメージ(T2I)モデルの台頭は、フォトリアリスティックな人間の肖像画の合成を可能にした。
本研究では,自動対向プロンプト生成フレームワークを提案する。
提案手法は,オープンソースのAIGC検出器と商用AIGC検出器の両方を一貫して回避する,多種多様な制御可能なプロンプトを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of text-to-image (T2I) models has enabled the synthesis of photorealistic human portraits, raising serious concerns about identity misuse and the robustness of AIGC detectors. In this work, we propose an automated adversarial prompt generation framework that leverages a grammar tree structure and a variant of the Monte Carlo tree search algorithm to systematically explore the semantic prompt space. Our method generates diverse, controllable prompts that consistently evade both open-source and commercial AIGC detectors. Extensive experiments across multiple T2I models validate its effectiveness, and the approach ranked first in a real-world adversarial AIGC detection competition. Beyond attack scenarios, our method can also be used to construct high-quality adversarial datasets, providing valuable resources for training and evaluating more robust AIGC detection and defense systems.
- Abstract(参考訳): テキスト・トゥ・イメージ(T2I)モデルの台頭により、フォトリアリスティックな人間の肖像画の合成が可能となり、アイデンティティの誤用やAIGC検出器の堅牢性に対する深刻な懸念が高まった。
本研究では,モンテカルロ木探索アルゴリズムの文法木構造と変種を利用して,意味的プロンプト空間を体系的に探索する自動逆プロンプト生成フレームワークを提案する。
提案手法は,オープンソースのAIGC検出器と商用AIGC検出器の両方を一貫して回避する,多種多様な制御可能なプロンプトを生成する。
複数のT2Iモデルにわたる大規模な実験により、その効果が検証され、現実の敵AIGC検出競争で第1位にランクされた。
攻撃シナリオ以外にも、我々の手法は高品質な敵対的データセットの構築にも使用でき、より堅牢なAIGC検出と防御システムのトレーニングと評価に有用なリソースを提供する。
関連論文リスト
- Benchmarking Unified Face Attack Detection via Hierarchical Prompt Tuning [58.16354555208417]
提示攻撃検出と顔偽造検出は、それぞれ物理メディアベースの提示攻撃とデジタル編集ベースのDeepFakeから顔データを保護するように設計されている。
これら2つのモデルの個別のトレーニングは、未知の攻撃やデプロイ環境への脆弱性を生じさせる。
本稿では,視覚言語モデルに基づく階層型プロンプトチューニングフレームワーク (HiPTune) を提案する。
論文 参考訳(メタデータ) (2025-05-19T16:35:45Z) - Kill two birds with one stone: generalized and robust AI-generated text detection via dynamic perturbations [23.612489763464357]
本稿では,高精巧な報酬と行動を伴う強化学習によって導入された動的摂動による新しいAIGT検出法(DP-Net)を提案する。
実験により,提案したDP-NetによるAIGT検出手法は,一般化能力に優れることがわかった。
論文 参考訳(メタデータ) (2025-04-22T02:21:19Z) - Are AI-Generated Text Detectors Robust to Adversarial Perturbations? [9.001160538237372]
AI生成テキスト(AIGT)の現在の検出器は、敵の摂動に対する堅牢性を欠いている。
本稿では,既存のAIGT検出手法の堅牢性について検討し,新しい検出器であるシームズキャリブレーション・リコンストラクション・ネットワーク(SCRN)を導入する。
SCRNは、テキストからのノイズの追加と除去に再構成ネットワークを使用し、局所的な摂動に対して堅牢な意味表現を抽出する。
論文 参考訳(メタデータ) (2024-06-03T10:21:48Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Humanizing Machine-Generated Content: Evading AI-Text Detection through Adversarial Attack [24.954755569786396]
そこで本研究では,機械生成コンテンツの小さな摂動を回避して検出を回避すべく,より広いレベルの敵攻撃のためのフレームワークを提案する。
我々は、ホワイトボックスとブラックボックスの2つの攻撃設定を検討し、現在の検出モデルのロバスト性を高める可能性を評価するために、動的シナリオにおける逆学習を採用する。
実験の結果、現在の検出モデルは10秒で妥協でき、機械が生成したテキストを人間の書き起こしコンテンツとして誤分類する結果となった。
論文 参考訳(メタデータ) (2024-04-02T12:49:22Z) - ToBlend: Token-Level Blending With an Ensemble of LLMs to Attack AI-Generated Text Detection [6.27025292177391]
ToBlendはトークンレベルのアンサンブルテキスト生成手法であり、現在のAIコンテンツ検出アプローチの堅牢性に挑戦する。
ToBlendは、主要なAIコンテンツ検出手法の性能を著しく低下させる。
論文 参考訳(メタデータ) (2024-02-17T02:25:57Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。