論文の概要: Attacking Image Splicing Detection and Localization Algorithms Using
Synthetic Traces
- arxiv url: http://arxiv.org/abs/2211.12314v1
- Date: Tue, 22 Nov 2022 15:07:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:27:07.044443
- Title: Attacking Image Splicing Detection and Localization Algorithms Using
Synthetic Traces
- Title(参考訳): 合成トレースを用いた画像スプライシング検出と局所化アルゴリズム
- Authors: Shengbang Fang, Matthew C Stamm
- Abstract要約: 近年のディープラーニングの進歩により、法医学研究者は画像スプライシング検出とローカライズアルゴリズムの新しいクラスを開発することができた。
これらのアルゴリズムは、シームズニューラルネットワークを用いて、法医学的トレースの局所的不整合を検出することによって、スプライシング内容を特定する。
本稿では,最先端のスプライシング検出とローカライズアルゴリズムを騙し得る新しいGANベースの反法医学的攻撃を提案する。
- 参考スコア(独自算出の注目度): 17.408491376238008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning have enabled forensics researchers to
develop a new class of image splicing detection and localization algorithms.
These algorithms identify spliced content by detecting localized
inconsistencies in forensic traces using Siamese neural networks, either
explicitly during analysis or implicitly during training. At the same time,
deep learning has enabled new forms of anti-forensic attacks, such as
adversarial examples and generative adversarial network (GAN) based attacks.
Thus far, however, no anti-forensic attack has been demonstrated against image
splicing detection and localization algorithms. In this paper, we propose a new
GAN-based anti-forensic attack that is able to fool state-of-the-art splicing
detection and localization algorithms such as EXIF-Net, Noiseprint, and
Forensic Similarity Graphs. This attack operates by adversarially training an
anti-forensic generator against a set of Siamese neural networks so that it is
able to create synthetic forensic traces. Under analysis, these synthetic
traces appear authentic and are self-consistent throughout an image. Through a
series of experiments, we demonstrate that our attack is capable of fooling
forensic splicing detection and localization algorithms without introducing
visually detectable artifacts into an attacked image. Additionally, we
demonstrate that our attack outperforms existing alternative attack approaches.
%
- Abstract(参考訳): 近年のディープラーニングの進歩により、画像スプライシング検出とローカライゼーションアルゴリズムの新しいクラスの開発が可能になった。
これらのアルゴリズムは、シームズニューラルネットワークを用いて、分析中またはトレーニング中に暗黙的に、ローカライズされた不整合を検出することによって、スプライシング内容を特定する。
同時に、ディープラーニングは、敵の例やgan(generative adversarial network)ベースの攻撃など、新たな形の反フォレンス攻撃を可能にした。
しかし、これまで画像スプライシング検出と局所化アルゴリズムに対する反法医学的攻撃は示されていない。
本稿では,EXIF-Net,Nossprint,Forensic similarity Graphsなどの最先端のスプライシング検出およびローカライズアルゴリズムを騙し得る,GANベースの新たなアンチ・フォレンジック・アタックを提案する。
この攻撃は、シームズニューラルネットワークのセットに対して反法医学的ジェネレータを逆さまに訓練することで、合成法医学的トレースを作成することができる。
分析では、これらの合成痕跡は本物に見え、画像全体を通して自己整合である。
一連の実験を通して,攻撃画像に視覚的に検出可能なアーティファクトを導入することなく,法医学的なスプライシング検出とローカライズアルゴリズムを騙すことができることを示した。
さらに,本攻撃が既存の代替攻撃手法を上回っていることを実証する。
%
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Exploring the Adversarial Robustness of CLIP for AI-generated Image Detection [9.516391314161154]
比較言語-画像事前学習(CLIP)に基づく手法に着目し,AI生成画像検出器の対角的ロバスト性について検討した。
CLIPベースの検出器は、CNNベースの検出器と同様に、ホワイトボックス攻撃に対して脆弱である。
この分析は、より効果的な戦略を開発するのに役立つ法医学的検出器の特性に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-07-28T18:20:08Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors [24.809185168969066]
我々は,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
我々の攻撃は、7つの異なるGANを用いて合成画像で8つの最先端検出CNNを騙すことができることを示す。
論文 参考訳(メタデータ) (2021-04-25T05:56:57Z) - Adversarial Attack on Deep Learning-Based Splice Localization [14.669890331986794]
画像の操作を隠蔽する3つの非エンドツーエンドのディープラーニングベースのスプライスローカライズツールを,新たなアルゴリズムを用いて実証する。
生成した対向的摂動は, 局部化性能の劣化に関して, それら間で伝達可能であることが判明した。
論文 参考訳(メタデータ) (2020-04-17T20:31:38Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。