論文の概要: A Transferable Anti-Forensic Attack on Forensic CNNs Using A Generative
Adversarial Network
- arxiv url: http://arxiv.org/abs/2101.09568v1
- Date: Sat, 23 Jan 2021 19:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 11:21:24.688959
- Title: A Transferable Anti-Forensic Attack on Forensic CNNs Using A Generative
Adversarial Network
- Title(参考訳): ジェネレーティブ・ディバイサル・ネットワークを用いた法定CNNへのトランスファー可能な反法定攻撃
- Authors: Xinwei Zhao, Chen Chen, Matthew C. Stamm
- Abstract要約: 畳み込みニューラルネットワーク(CNN)はマルチメディア法医学で広く使われている。
これらのCNNベースのフォレンジックアルゴリズムをだますために、反フォレンジック攻撃が開発されている。
様々な操作操作で残されている法医学的痕跡を除去する新しい対法医学的攻撃フレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.032025811564814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of deep learning, convolutional neural networks (CNNs)
have become widely used in multimedia forensics for tasks such as detecting and
identifying image forgeries. Meanwhile, anti-forensic attacks have been
developed to fool these CNN-based forensic algorithms. Previous anti-forensic
attacks often were designed to remove forgery traces left by a single
manipulation operation as opposed to a set of manipulations. Additionally,
recent research has shown that existing anti-forensic attacks against forensic
CNNs have poor transferability, i.e. they are unable to fool other forensic
CNNs that were not explicitly used during training. In this paper, we propose a
new anti-forensic attack framework designed to remove forensic traces left by a
variety of manipulation operations. This attack is transferable, i.e. it can be
used to attack forensic CNNs are unknown to the attacker, and it introduces
only minimal distortions that are imperceptible to human eyes. Our proposed
attack utilizes a generative adversarial network (GAN) to build a generator
that can attack color images of any size. We achieve attack transferability
through the use of a new training strategy and loss function. We conduct
extensive experiment to demonstrate that our attack can fool many state-of-art
forensic CNNs with varying levels of knowledge available to the attacker.
- Abstract(参考訳): 深層学習の発展に伴い、画像偽造の検出や識別といったタスクのマルチメディア法医学において、畳み込みニューラルネットワーク(CNN)が広く使われている。
一方、CNNベースの法医学アルゴリズムを騙すために、反法医学的攻撃が開発されている。
以前の反forensic攻撃は、操作のセットとは対照的に、単一の操作操作で残る偽造の痕跡を取り除くよう設計されていた。
さらに、近年の研究では、既存の法医学的cnnに対する反フォレンス攻撃は、転送能力に乏しいことが示されている。
訓練中に明示的に使用されなかった他の法医学的CNNを騙すことはできない。
本稿では,様々な操作操作が残した法医学的痕跡を除去する新しい対法医学的攻撃フレームワークを提案する。
この攻撃は転送可能である。
それは、攻撃者にとって未知の法医学的なcnnを攻撃するために使用され、人間の目には知覚できない最小限の歪みだけをもたらす。
提案攻撃はGAN(Generative Adversarial Network)を用いて,任意のサイズのカラー画像に攻撃できるジェネレータを構築する。
我々は,新たな訓練戦略と損失関数を用いて攻撃伝達性を実現する。
我々は、我々の攻撃が攻撃者に利用可能な様々なレベルの知識を持つ多くの最先端のCNNを騙すことができることを示すための広範な実験を行う。
関連論文リスト
- Attacking Image Splicing Detection and Localization Algorithms Using
Synthetic Traces [17.408491376238008]
近年のディープラーニングの進歩により、法医学研究者は画像スプライシング検出とローカライズアルゴリズムの新しいクラスを開発することができた。
これらのアルゴリズムは、シームズニューラルネットワークを用いて、法医学的トレースの局所的不整合を検出することによって、スプライシング内容を特定する。
本稿では,最先端のスプライシング検出とローカライズアルゴリズムを騙し得る新しいGANベースの反法医学的攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-22T15:07:16Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps [0.3437656066916039]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
論文 参考訳(メタデータ) (2022-08-24T11:05:04Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors [24.809185168969066]
我々は,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
我々の攻撃は、7つの異なるGANを用いて合成画像で8つの最先端検出CNNを騙すことができることを示す。
論文 参考訳(メタデータ) (2021-04-25T05:56:57Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - The Effect of Class Definitions on the Transferability of Adversarial
Attacks Against Forensic CNNs [24.809185168969066]
画像操作を識別するために訓練されたCNNに対する敵対攻撃は、クラス定義に唯一の違いがあるCNNへの転送に失敗することを示す。
これは、敵対的および反法医学的攻撃に対して堅牢な法医学的CNNの設計に重要な意味を持つ。
論文 参考訳(メタデータ) (2021-01-26T20:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。