論文の概要: Evading Detection Actively: Toward Anti-Forensics against Forgery
Localization
- arxiv url: http://arxiv.org/abs/2310.10036v1
- Date: Mon, 16 Oct 2023 03:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 16:49:42.089805
- Title: Evading Detection Actively: Toward Anti-Forensics against Forgery
Localization
- Title(参考訳): Evading Detection Actively: toward anti-forensics against forgery Localization
- Authors: Long Zhuo and Shenghai Luo and Shunquan Tan and Han Chen and Bin Li
and Jiwu Huang
- Abstract要約: 反法医学は、改ざんするアーティファクトの痕跡を排除または隠蔽しようとする。
従来の敵攻撃法は、偽の局所化に対して直接使用することはできない。
本稿では,SEAR(Self-supErvised Anti-foRensics)を提案する。
- 参考スコア(独自算出の注目度): 40.124726174594024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anti-forensics seeks to eliminate or conceal traces of tampering artifacts.
Typically, anti-forensic methods are designed to deceive binary detectors and
persuade them to misjudge the authenticity of an image. However, to the best of
our knowledge, no attempts have been made to deceive forgery detectors at the
pixel level and mis-locate forged regions. Traditional adversarial attack
methods cannot be directly used against forgery localization due to the
following defects: 1) they tend to just naively induce the target forensic
models to flip their pixel-level pristine or forged decisions; 2) their
anti-forensics performance tends to be severely degraded when faced with the
unseen forensic models; 3) they lose validity once the target forensic models
are retrained with the anti-forensics images generated by them. To tackle the
three defects, we propose SEAR (Self-supErvised Anti-foRensics), a novel
self-supervised and adversarial training algorithm that effectively trains
deep-learning anti-forensic models against forgery localization. SEAR sets a
pretext task to reconstruct perturbation for self-supervised learning. In
adversarial training, SEAR employs a forgery localization model as a supervisor
to explore tampering features and constructs a deep-learning concealer to erase
corresponding traces. We have conducted largescale experiments across diverse
datasets. The experimental results demonstrate that, through the combination of
self-supervised learning and adversarial learning, SEAR successfully deceives
the state-of-the-art forgery localization methods, as well as tackle the three
defects regarding traditional adversarial attack methods mentioned above.
- Abstract(参考訳): 反forensicsは、改ざんした人工物の痕跡を取り除いたり隠そうとしている。
通常、対法法はバイナリ検出器を騙し、画像の真偽を誤認するよう説得するために設計されている。
しかし、我々の知る限りでは、ピクセルレベルで偽造検出器を欺き、偽造された領域を誤検出する試みは行われていない。
伝統的な敵対的攻撃方法は、以下の欠陥のため、偽造のローカライズに対して直接使用することはできない。
1) 対象の法医学モデルに、画素レベルのプリズムや偽判定を逆転させるだけを誘導する傾向がある。
2) その反フォレンス効果は, 未発見の法医学モデルに直面すると, 著しく低下する傾向にある。
3) 対象の法医学モデルが生成した反フォレンス画像で再訓練されると有効性が失われる。
これら3つの欠陥に対処するために, 自己監督型対人訓練アルゴリズムであるSEAR(Self-supErvised Anti-foRensics)を提案する。
SEARは、自己教師型学習のための摂動を再構築するためのプレテキストタスクを設定する。
逆行訓練において、SEARは不正なローカライゼーションモデルを用いて、改ざん機能を探究し、ディープラーニングの隠蔽装置を構築して、対応するトレースを消去する。
多様なデータセットにわたる大規模な実験を行った。
実験の結果,自己指導型学習と対人学習の組み合わせにより,SEARは従来の対人攻撃手法に関する3つの問題点に対処すると同時に,最先端のフォージェリーローカライゼーション手法を騙すことに成功した。
関連論文リスト
- Fake It Until You Break It: On the Adversarial Robustness of AI-generated Image Detectors [14.284639462471274]
我々は,攻撃シナリオの異なるAIGI検出器の評価を行った。
攻撃によって検出精度が大幅に低下し、検知器に依存するリスクがその利点を上回る程度に低下する可能性がある。
本稿では,これらの攻撃に対して,CLIPをベースとした簡易な防御機構を提案する。
論文 参考訳(メタデータ) (2024-10-02T14:11:29Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts [23.279652897139286]
ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
論文 参考訳(メタデータ) (2024-04-12T09:13:37Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Dual Contrastive Learning for General Face Forgery Detection [64.41970626226221]
本稿では,正と負のペアデータを構成するDCL (Dual Contrastive Learning) という新しい顔偽造検出フレームワークを提案する。
本研究は, 事例内コントラスト学習(Intra-ICL)において, 偽造顔における局所的内容の不整合に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-27T05:44:40Z) - Multi-Expert Adversarial Attack Detection in Person Re-identification
Using Context Inconsistency [47.719533482898306]
本稿では,個人再識別(ReID)システムに対する悪意のある攻撃を検知するための,Multi-Expert Adversarial Detection(MEAAD)アプローチを提案する。
ReIDに対する最初の敵攻撃検出アプローチとして、MEAADは様々な敵攻撃を効果的に検出し、高いROC-AUC(97.5%以上)を達成する。
論文 参考訳(メタデータ) (2021-08-23T01:59:09Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial Attack on Deep Learning-Based Splice Localization [14.669890331986794]
画像の操作を隠蔽する3つの非エンドツーエンドのディープラーニングベースのスプライスローカライズツールを,新たなアルゴリズムを用いて実証する。
生成した対向的摂動は, 局部化性能の劣化に関して, それら間で伝達可能であることが判明した。
論文 参考訳(メタデータ) (2020-04-17T20:31:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。