論文の概要: Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection
- arxiv url: http://arxiv.org/abs/2309.01104v1
- Date: Sun, 3 Sep 2023 07:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 21:35:22.960888
- Title: Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection
- Title(参考訳): フェイクを現実に:ディープフェイク検出に対する敵のヘッドターン攻撃
- Authors: Weijie Wang, Zhengyu Zhao, Nicu Sebe, Bruno Lepri
- Abstract要約: 本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 58.1263969438364
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Malicious use of deepfakes leads to serious public concerns and reduces
people's trust in digital media. Although effective deepfake detectors have
been proposed, they are substantially vulnerable to adversarial attacks. To
evaluate the detector's robustness, recent studies have explored various
attacks. However, all existing attacks are limited to 2D image perturbations,
which are hard to translate into real-world facial changes. In this paper, we
propose adversarial head turn (AdvHeat), the first attempt at 3D adversarial
face views against deepfake detectors, based on face view synthesis from a
single-view fake image. Extensive experiments validate the vulnerability of
various detectors to AdvHeat in realistic, black-box scenarios. For example,
AdvHeat based on a simple random search yields a high attack success rate of
96.8% with 360 searching steps. When additional query access is allowed, we can
further reduce the step budget to 50. Additional analyses demonstrate that
AdvHeat is better than conventional attacks on both the cross-detector
transferability and robustness to defenses. The adversarial images generated by
AdvHeat are also shown to have natural looks. Our code, including that for
generating a multi-view dataset consisting of 360 synthetic views for each of
1000 IDs from FaceForensics++, is available at
https://github.com/twowwj/AdvHeaT.
- Abstract(参考訳): ディープフェイクの悪質な使用は、人々のデジタルメディアに対する信頼を低下させ、深刻な公衆の懸念に繋がる。
効果的なディープフェイク検出器が提案されているが、敵の攻撃に対してかなり脆弱である。
検出器の堅牢性を評価するため、最近の研究では様々な攻撃を調査している。
しかし、既存の攻撃はすべて2d画像の摂動に限定されており、実際の顔変化には変換が難しい。
本稿では,1視点のフェイク画像からの顔視合成に基づいて,ディープフェイク検出器に対する3次元顔視の最初の試みである対向頭部回転(AdvHeat)を提案する。
大規模な実験は、現実的でブラックボックスのシナリオで様々な検出器のAdvHeatに対する脆弱性を検証する。
例えば、単純なランダム検索に基づくadvheatは、360探索ステップで96.8%高い攻撃成功率が得られる。
追加のクエリアクセスが許可されると、ステップ予算をさらに50に削減できます。
さらなる分析により、アドバエは従来のクロス検出器転送性と防御に対する堅牢性の両方に対する攻撃よりも優れていることが示されている。
また、advheatが生成する敵画像には自然な外観が示される。
FaceForensics++から1000のIDに対して360の合成ビューからなるマルチビューデータセットを生成するコードを含め、当社のコードはhttps://github.com/twowj/AdvHeaT.comで公開されています。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Making DeepFakes more spurious: evading deep face forgery detection via
trace removal attack [16.221725939480084]
本稿では,DeepFakeアンチ・フォレスト・フォレストに対する検出非依存的トレース除去攻撃について紹介する。
検出器側を調査する代わりに、私たちの攻撃はオリジナルのDeepFake生成パイプラインを調べます。
実験により、提案された攻撃は6つの最先端のDeepFake検出器の検出精度を著しく損なうことが示された。
論文 参考訳(メタデータ) (2022-03-22T03:13:33Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - Imperceptible Adversarial Examples for Fake Image Detection [46.72602615209758]
本稿では,鍵画素を偽画像検出器に判定し,鍵画素のみを攻撃することにより,偽画像検出を妨害する手法を提案する。
3つの偽画像検出器を用いた2つの公開データセット実験により,提案手法は,ホワイトボックス攻撃とブラックボックス攻撃の両方において最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2021-06-03T06:25:04Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。