論文の概要: Untraceable DeepFakes via Traceable Fingerprint Elimination
- arxiv url: http://arxiv.org/abs/2508.03067v1
- Date: Tue, 05 Aug 2025 04:27:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.77439
- Title: Untraceable DeepFakes via Traceable Fingerprint Elimination
- Title(参考訳): トレーサブルフィンガープリント除去による追跡不能ディープフェイク
- Authors: Jiewei Lai, Lan Zhang, Chen Tang, Pengcheng Sun, Xinming Wang, Yunhao Wang,
- Abstract要約: 追跡不能なDeepFakeは乗算攻撃によって実現でき、GMのトレースを根本的に排除することができる。
我々は、実データのみを用いて敵モデルを訓練する普遍的かつブラックボックス攻撃法を設計する。
我々の研究は、乗法攻撃による潜在的な課題を強調し、より堅牢な帰属モデルの必要性を強調している。
- 参考スコア(独自算出の注目度): 13.014991226307698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in DeepFakes attribution technologies have significantly enhanced forensic capabilities, enabling the extraction of traces left by generative models (GMs) in images, making DeepFakes traceable back to their source GMs. Meanwhile, several attacks have attempted to evade attribution models (AMs) for exploring their limitations, calling for more robust AMs. However, existing attacks fail to eliminate GMs' traces, thus can be mitigated by defensive measures. In this paper, we identify that untraceable DeepFakes can be achieved through a multiplicative attack, which can fundamentally eliminate GMs' traces, thereby evading AMs even enhanced with defensive measures. We design a universal and black-box attack method that trains an adversarial model solely using real data, applicable for various GMs and agnostic to AMs. Experimental results demonstrate the outstanding attack capability and universal applicability of our method, achieving an average attack success rate (ASR) of 97.08\% against 6 advanced AMs on DeepFakes generated by 9 GMs. Even in the presence of defensive mechanisms, our method maintains an ASR exceeding 72.39\%. Our work underscores the potential challenges posed by multiplicative attacks and highlights the need for more robust AMs.
- Abstract(参考訳): 近年のDeepFakes属性技術の進歩は、画像中の生成モデル(GM)が残したトレースを抽出し、DeepFakesを元のGMにトレースできるようにするために、法医学的能力を大幅に向上させた。
一方、いくつかの攻撃は、より堅牢なAMを要求するために、その制限を探索するために属性モデル(AM)を避けようとした。
しかし、既存の攻撃ではGMの痕跡を排除できず、防御策によって緩和できる。
本稿では、GMのトレースを根本的に排除し、防御対策によって強化されたAMを回避することができる乗法攻撃により、追跡不能なDeepFakeが達成可能であることを確かめる。
我々は、実データのみを用いて敵モデルを訓練し、様々なGMに適用し、AMに非依存なユニバーサル・ブラックボックス攻撃法を設計する。
実験により,9台のGMが生成した6基のDeepFakeに対する平均攻撃成功率(ASR)を97.08倍に達成し,本手法の優れた攻撃能力と普遍的適用性を示した。
防御機構が存在する場合でも,ASRは72.39\%以上を維持している。
我々の研究は、乗法攻撃による潜在的な課題を強調し、より堅牢なAMの必要性を強調している。
関連論文リスト
- TopicAttack: An Indirect Prompt Injection Attack via Topic Transition [71.81906608221038]
大規模言語モデル(LLM)は間接的なインジェクション攻撃に対して脆弱である。
提案するTopicAttackは,LLMに生成した遷移プロンプトを生成し,徐々にトピックをインジェクション命令にシフトさせる。
提案手法は, インジェクトからオリジナルへのアテンション比が高く, 成功確率が高く, ベースライン法よりもはるかに高い比を達成できることがわかった。
論文 参考訳(メタデータ) (2025-07-18T06:23:31Z) - TrojanTO: Action-Level Backdoor Attacks against Trajectory Optimization Models [67.06525001375722]
TrojanTOはTOモデルに対する最初のアクションレベルのバックドア攻撃である。
様々なタスクにバックドア攻撃を移植し、低い攻撃予算で目標を攻撃する。
TrojanTOはDT、GDT、DCに広く適用可能である。
論文 参考訳(メタデータ) (2025-06-15T11:27:49Z) - Wolf Hidden in Sheep's Conversations: Toward Harmless Data-Based Backdoor Attacks for Jailbreaking Large Language Models [69.11679786018206]
Supervised Fine-tuning (SFT) は、大きな言語モデルと人間の意図を協調させ、ラベル付きタスク固有データでトレーニングする。
近年の研究では、悪意のある攻撃者が、有害な質問応答ペアにトリガーを埋め込むことで、これらのモデルにバックドアを注入できることが示されている。
脱獄性LLMに対する新しいクリーンデータバックドアアタックを提案する。
論文 参考訳(メタデータ) (2025-05-23T08:13:59Z) - Masks and Mimicry: Strategic Obfuscation and Impersonation Attacks on Authorship Verification [1.0168443186928038]
著者モデル(特に著者検証モデル)の強力なLSM攻撃に対する対角的堅牢性を評価する。
どちらの攻撃も、原文の意味を保ちながら著者の執筆スタイルを隠蔽または模倣することが目的である。
難読化攻撃と偽装攻撃の両方で最大92%と78%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2025-03-24T19:36:22Z) - Gungnir: Exploiting Stylistic Features in Images for Backdoor Attacks on Diffusion Models [8.672029086609884]
拡散モデル(DM)はバックドア攻撃に対して脆弱である。
Gungnirは、入力画像内のスタイルトリガを通じて、攻撃者がDMのバックドアをアクティベートできる新しい方法である。
本手法は,クリーン画像と知覚的に区別できないトリガー埋め込み画像を生成する。
論文 参考訳(メタデータ) (2025-02-28T02:08:26Z) - Mingling with the Good to Backdoor Federated Learning [0.8657107511095243]
Federated Learning(FL)は、複数のエンティティがデータセットのプライバシを保持しながらモデルを共同でトレーニングすることを可能にする、分散機械学習技術である。
本稿では,様々な防御を回避しつつ,FLにバックドアを設置可能な汎用攻撃法の設計の可能性について検討する。
具体的には、MIGOと呼ばれる攻撃的戦略に注目し、正当性を微妙にブレンドしたモデル更新を作成することを目的としている。
論文 参考訳(メタデータ) (2025-01-03T17:30:59Z) - Targeted Attack Improves Protection against Unauthorized Diffusion Customization [3.1678356835951273]
拡散モデルは画像生成の新たなマイルストーンを築き、公共の関心を喚起する。
カスタマイズのために、未許可の画像に微調整できる。
標的外攻撃を利用した現在の保護は、十分に効果がないように見える。
ターゲット攻撃の導入により、不正拡散のカスタマイズに対する保護をシンプルかつ効果的に行うことを提案する。
論文 参考訳(メタデータ) (2023-10-07T05:24:42Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - The Devil is in the GAN: Defending Deep Generative Models Against
Backdoor Attacks [4.369506407912208]
劣化したDeep Generative Models(DGM)による新たなトレーニングタイムアタックについて述べる。
我々の攻撃は、攻撃の盗難と忠実性という2つの目的を組み合わせた敵の損失関数に基づいている。
我々の実験は、大規模産業レベルのDGMであっても、我々の攻撃は控えめな計算努力で実施できることを示している。
論文 参考訳(メタデータ) (2021-08-03T17:33:38Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Confusing and Detecting ML Adversarial Attacks with Injected Attractors [13.939695351344538]
機械学習の敵対攻撃は、攻撃対象関数の勾配に従えば、被害者モデル$mathcal M$の敵サンプルを見つける。
攻撃をいくつかの局所的な最小限に誤誘導することを目的として,これらの機能を積極的に修正するアプローチを採っている。
我々は,透かし方式のデコーダがアトラクタの特性を示すことを観察し,アトラクタを被害者モデルに注入する汎用的な方法を提案する。
論文 参考訳(メタデータ) (2020-03-05T16:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。