論文の概要: Where the Devil Hides: Deepfake Detectors Can No Longer Be Trusted
- arxiv url: http://arxiv.org/abs/2505.08255v1
- Date: Tue, 13 May 2025 06:09:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.441655
- Title: Where the Devil Hides: Deepfake Detectors Can No Longer Be Trusted
- Title(参考訳): 悪の秘密:ディープフェイク・ディテクターはもはや信頼できない
- Authors: Shuaiwei Yuan, Junyu Dong, Yuezun Li,
- Abstract要約: ディープフェイク検出器は一般的にディープニューラルネットワーク(DNN)上で開発され、サードパーティのデータセットを使用してトレーニングされる。
サードパーティプロバイダは、これらのトリガーを悪意のあるユーザに配布または販売することで、検出性能を操作し、説明責任を逃れることができる。
本稿では、この危険性を深く調査し、ディープフェイク検出器に密かに感染する解決策について述べる。
- 参考スコア(独自算出の注目度): 33.60389410624143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of AI generative techniques, Deepfake faces have become incredibly realistic and nearly indistinguishable to the human eye. To counter this, Deepfake detectors have been developed as reliable tools for assessing face authenticity. These detectors are typically developed on Deep Neural Networks (DNNs) and trained using third-party datasets. However, this protocol raises a new security risk that can seriously undermine the trustfulness of Deepfake detectors: Once the third-party data providers insert poisoned (corrupted) data maliciously, Deepfake detectors trained on these datasets will be injected ``backdoors'' that cause abnormal behavior when presented with samples containing specific triggers. This is a practical concern, as third-party providers may distribute or sell these triggers to malicious users, allowing them to manipulate detector performance and escape accountability. This paper investigates this risk in depth and describes a solution to stealthily infect Deepfake detectors. Specifically, we develop a trigger generator, that can synthesize passcode-controlled, semantic-suppression, adaptive, and invisible trigger patterns, ensuring both the stealthiness and effectiveness of these triggers. Then we discuss two poisoning scenarios, dirty-label poisoning and clean-label poisoning, to accomplish the injection of backdoors. Extensive experiments demonstrate the effectiveness, stealthiness, and practicality of our method compared to several baselines.
- Abstract(参考訳): AI生成技術の進歩により、ディープフェイクの顔は驚くほど現実的になり、人間の目にはほとんど区別がつかなくなった。
これに対抗するため、ディープフェイク検出器は顔の信頼性を評価するための信頼性の高いツールとして開発された。
これらの検出器は一般的にディープニューラルネットワーク(DNN)上で開発され、サードパーティのデータセットを使用してトレーニングされる。
しかし、このプロトコルは、Deepfake検出器の信頼性を著しく損なう新たなセキュリティリスクを生じさせる。 サードパーティのデータプロバイダが悪意を持って有毒な(破損した)データを挿入すると、これらのデータセットでトレーニングされたDeepfake検出器に"‘backdoors’が注入され、特定のトリガーを含むサンプルが提示されると異常な振る舞いを引き起こす。
サードパーティのプロバイダがこれらのトリガーを悪意のあるユーザに配布または販売し、検出性能を操作したり、説明責任を逃れることが可能になるため、これは現実的な懸念である。
本稿では、この危険性を深く調査し、ディープフェイク検出器に密かに感染する解決策について述べる。
具体的には、パスコード制御、セマンティック・プレッション、適応、見えないトリガパターンを合成し、これらのトリガのステルス性と有効性を保証できるトリガ生成器を開発する。
次に, 裏口の注入を実現するため, 汚泥毒と清泥毒の2つのシナリオについて検討した。
提案手法の有効性, ステルス性, 実用性について, 基礎となる諸指標と比較検討した。
関連論文リスト
- Real is not True: Backdoor Attacks Against Deepfake Detection [9.572726483706846]
本稿では,Bad-Deepfake(Bad-Deepfake)と命名された先駆的パラダイムを導入する。
我々のアプローチはトレーニングデータのサブセットを戦略的に操作することで、トレーニングされたモデルの運用特性に対する不均等な影響を軽減します。
論文 参考訳(メタデータ) (2024-03-11T10:57:14Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Unsupervised Multimodal Deepfake Detection Using Intra- and Cross-Modal Inconsistencies [14.660707087391463]
ディープフェイクビデオは、刑事司法、民主主義、個人の安全とプライバシーに悪影響を及ぼす可能性のある社会への脅威が増えていることを示している。
本稿では,ビデオセグメント間のモーダル内およびモーダル間不整合を直接同定することで,ディープフェイク動画を検出する新しい教師なし手法を提案する。
提案手法は,FakeAVCelebデータセットを用いた非教師なしディープフェイク検出手法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-28T03:28:19Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Making DeepFakes more spurious: evading deep face forgery detection via
trace removal attack [16.221725939480084]
本稿では,DeepFakeアンチ・フォレスト・フォレストに対する検出非依存的トレース除去攻撃について紹介する。
検出器側を調査する代わりに、私たちの攻撃はオリジナルのDeepFake生成パイプラインを調べます。
実験により、提案された攻撃は6つの最先端のDeepFake検出器の検出精度を著しく損なうことが示された。
論文 参考訳(メタデータ) (2022-03-22T03:13:33Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。