論文の概要: The Effect of Class Definitions on the Transferability of Adversarial
Attacks Against Forensic CNNs
- arxiv url: http://arxiv.org/abs/2101.11081v1
- Date: Tue, 26 Jan 2021 20:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 01:47:58.754997
- Title: The Effect of Class Definitions on the Transferability of Adversarial
Attacks Against Forensic CNNs
- Title(参考訳): 法医学的CNNに対する敵対攻撃の移動性に及ぼすクラス定義の影響
- Authors: Xinwei Zhao and Matthew C. Stamm
- Abstract要約: 画像操作を識別するために訓練されたCNNに対する敵対攻撃は、クラス定義に唯一の違いがあるCNNへの転送に失敗することを示す。
これは、敵対的および反法医学的攻撃に対して堅牢な法医学的CNNの設計に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 24.809185168969066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, convolutional neural networks (CNNs) have been widely used
by researchers to perform forensic tasks such as image tampering detection. At
the same time, adversarial attacks have been developed that are capable of
fooling CNN-based classifiers. Understanding the transferability of adversarial
attacks, i.e. an attacks ability to attack a different CNN than the one it was
trained against, has important implications for designing CNNs that are
resistant to attacks. While attacks on object recognition CNNs are believed to
be transferrable, recent work by Barni et al. has shown that attacks on
forensic CNNs have difficulty transferring to other CNN architectures or CNNs
trained using different datasets. In this paper, we demonstrate that
adversarial attacks on forensic CNNs are even less transferrable than
previously thought even between virtually identical CNN architectures! We show
that several common adversarial attacks against CNNs trained to identify image
manipulation fail to transfer to CNNs whose only difference is in the class
definitions (i.e. the same CNN architectures trained using the same data). We
note that all formulations of class definitions contain the unaltered class.
This has important implications for the future design of forensic CNNs that are
robust to adversarial and anti-forensic attacks.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(CNN)は、画像改ざん検出などのフォレンジックタスクを実行するために研究者によって広く使用されています。
同時に、CNNベースの分類器を騙すことができる敵攻撃も開発されている。
敵対攻撃、すなわちの移動可能性を理解する。
訓練されたCNNと異なるCNNを攻撃する攻撃能力は、攻撃に抵抗するCNNを設計する上で重要な意味を持っています。
オブジェクト認識CNNへの攻撃は転送可能であると考えられているが、Barniらによる最近の研究。
法医学的なCNNに対する攻撃は、異なるデータセットを使用してトレーニングされた他のCNNアーキテクチャやCNNへの転送が困難であることを示している。
本論文では、事実上同一のCNNアーキテクチャ間でも、フォレンジックCNNに対する敵対攻撃が以前考えられていたよりもさらに少ないことを実証する!
画像操作を識別するために訓練されたCNNに対するいくつかの一般的な敵攻撃は、クラス定義にのみ差があるCNNへの転送に失敗することを示した。
同じデータを使ってトレーニングされた同じCNNアーキテクチャ)。
クラス定義の全ての定式化は不変なクラスを含むことに注意する。
これは、敵対的および反法医学的攻撃に対して堅牢な法医学的CNNの設計に重要な意味を持つ。
関連論文リスト
- A Neurosymbolic Framework for Bias Correction in Convolutional Neural Networks [2.249916681499244]
我々は、訓練されたCNNにおいて、バイアス補正のためのNeSyBiCorと呼ばれるニューロシンボリックフレームワークを導入する。
我々のフレームワークは、"Places"データセットのサブセットでトレーニングされたCNNのバイアスを修正することに成功した。
論文 参考訳(メタデータ) (2024-05-24T19:09:53Z) - Exploring Adversarial Examples and Adversarial Robustness of
Convolutional Neural Networks by Mutual Information [44.841339443764696]
本研究では,情報抽出における2種類の畳み込みニューラルネットワーク(CNN)の類似性と相違について検討する。
敵対的な例がCNNを誤解させた理由は、それらが他のカテゴリに関するテクスチャベースの情報を含んでいるからかもしれない。
通常訓練されたCNNは入力からテクスチャベースの情報を抽出する傾向があり、逆学習されたモデルは形状ベースの情報を好む。
論文 参考訳(メタデータ) (2022-07-12T13:25:42Z) - Deeply Explain CNN via Hierarchical Decomposition [75.01251659472584]
コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:56:04Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - A Transferable Anti-Forensic Attack on Forensic CNNs Using A Generative
Adversarial Network [24.032025811564814]
畳み込みニューラルネットワーク(CNN)はマルチメディア法医学で広く使われている。
これらのCNNベースのフォレンジックアルゴリズムをだますために、反フォレンジック攻撃が開発されている。
様々な操作操作で残されている法医学的痕跡を除去する新しい対法医学的攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-23T19:31:59Z) - Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks [7.540176446791261]
畳み込みニューラルネットワーク(CNN)は、インテリジェント車両などの移動ロボットにますます適用されています。
ロボットアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵対攻撃は研究に値する。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
論文 参考訳(メタデータ) (2020-12-21T15:18:41Z) - Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks [16.431689066281265]
Conalvolutional Neural Networks(CNN)は、強力なデータ依存型階層的特徴抽出方法として登場した。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
CNNを騙すために,カラーチャネル摂動(CCP)攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:35:29Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Adversarial Fooling Beyond "Flipping the Label" [54.23547006072598]
CNNは、多くの重要なタスクにおいて、人間に近いか、人間のパフォーマンスよりも優れていることを示す。
これらの攻撃は、実際の展開において潜在的に危険である。
異なるCNNアーキテクチャの集合に対するいくつかの重要な敵攻撃を包括的に分析する。
論文 参考訳(メタデータ) (2020-04-27T13:21:03Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。