論文の概要: Exploring Decision-based Black-box Attacks on Face Forgery Detection
- arxiv url: http://arxiv.org/abs/2310.12017v1
- Date: Wed, 18 Oct 2023 14:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 16:05:31.845263
- Title: Exploring Decision-based Black-box Attacks on Face Forgery Detection
- Title(参考訳): 顔偽造検出における決定に基づくブラックボックス攻撃の探索
- Authors: Zhaoyu Chen, Bo Li, Kaixun Jiang, Shuang Wu, Shouhong Ding, Wenqiang
Zhang
- Abstract要約: 顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
- 参考スコア(独自算出の注目度): 53.181920529225906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face forgery generation technologies generate vivid faces, which have raised
public concerns about security and privacy. Many intelligent systems, such as
electronic payment and identity verification, rely on face forgery detection.
Although face forgery detection has successfully distinguished fake faces,
recent studies have demonstrated that face forgery detectors are very
vulnerable to adversarial examples. Meanwhile, existing attacks rely on network
architectures or training datasets instead of the predicted labels, which leads
to a gap in attacking deployed applications. To narrow this gap, we first
explore the decision-based attacks on face forgery detection. However, applying
existing decision-based attacks directly suffers from perturbation
initialization failure and low image quality. First, we propose cross-task
perturbation to handle initialization failures by utilizing the high
correlation of face features on different tasks. Then, inspired by using
frequency cues by face forgery detection, we propose the frequency
decision-based attack. We add perturbations in the frequency domain and then
constrain the visual quality in the spatial domain. Finally, extensive
experiments demonstrate that our method achieves state-of-the-art attack
performance on FaceForensics++, CelebDF, and industrial APIs, with high query
efficiency and guaranteed image quality. Further, the fake faces by our method
can pass face forgery detection and face recognition, which exposes the
security problems of face forgery detectors.
- Abstract(参考訳): face forgery生成技術は、セキュリティとプライバシに関する公の関心を喚起する、鮮やかな顔を生成する。
電子決済や身元認証などの多くのインテリジェントシステムは、顔偽造検出に依存している。
顔偽造検出は偽の顔の識別に成功しているが、近年の研究では、顔偽造検知器は敵の例に非常に弱いことが示されている。
一方、既存の攻撃は予測されたラベルの代わりにネットワークアーキテクチャやトレーニングデータセットに依存しているため、デプロイされたアプリケーションに対する攻撃のギャップが生じる。
このギャップを狭めるために,まず,顔偽造検出における意思決定に基づく攻撃について検討する。
しかし、既存の決定に基づく攻撃の適用は、摂動初期化の失敗と画像品質の低下に直結する。
まず,異なるタスクにおける顔の特徴の高相関を利用して,初期化障害に対処するクロスタスク摂動を提案する。
そして、顔偽造検出による周波数手がかりの使用に触発され、周波数決定に基づく攻撃を提案する。
周波数領域に摂動を加え、空間領域の視覚的品質を制約する。
最後に,本手法がfaceforensics++,celebdf,industrial apiで最先端の攻撃性能を実現し,高いクエリ効率と画像品質が保証されていることを示す。
さらに, フェースフォージェリ検出と顔認識をパスすることで, フェースフォージェリ検出のセキュリティ問題を明らかにすることができる。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Learning Expressive And Generalizable Motion Features For Face Forgery
Detection [52.54404879581527]
本稿では,既存のビデオ分類手法に基づく,シーケンスに基づく効果的な偽造検出フレームワークを提案する。
動作特徴をより表現しやすくするために,別の動作整合ブロックを提案する。
一般的なビデオ分類ネットワークを3つの顔偽造データに対して有望な結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T09:25:48Z) - Deep Learning based CNN Model for Classification and Detection of
Individuals Wearing Face Mask [0.0]
このプロジェクトでは、ディープラーニングを利用して、リアルタイムストリーミングビデオや画像のフェイスマスクを検出するモデルを作成する。
この研究の主な焦点は、特にセンシティブな領域におけるセキュリティを強化することである。
この研究は、画像前処理、画像トリミング、画像分類の3段階に展開している。
論文 参考訳(メタデータ) (2023-11-17T09:24:04Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Differential Anomaly Detection for Facial Images [15.54185745912878]
アイデンティティ攻撃は、不正アクセスと偽情報の拡散に使用できるため、セキュリティ上の大きな脅威となる。
同一性攻撃を検出するほとんどのアルゴリズムは、訓練時に未知の攻撃タイプに悪影響を及ぼす。
本稿では,まず画像から深層面の埋め込みを抽出する差動異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-07T13:45:13Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。