論文の概要: FACM: Correct the Output of Deep Neural Network with Middle Layers
Features against Adversarial Samples
- arxiv url: http://arxiv.org/abs/2206.00924v1
- Date: Thu, 2 Jun 2022 08:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:36:57.403149
- Title: FACM: Correct the Output of Deep Neural Network with Middle Layers
Features against Adversarial Samples
- Title(参考訳): FACM: 逆サンプルに対する中間層特徴を持つディープニューラルネットワークの出力を補正する
- Authors: Xiangyuan Yang, Jie Lin, Hanlin Zhang, Xinyu Yang, Peng Zhao
- Abstract要約: 中間$boldF$eature layer $boldA$nalysis と $boldC$onditional $boldM$atching Prediction Distribution (FACM) モデルを提案する。
我々のFACMモデルは、様々な攻撃に対して自然に訓練されたモデルの堅牢性を大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 18.880398046794138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the strong adversarial attacks against deep neural network (DNN), the
output of DNN will be misclassified if and only if the last feature layer of
the DNN is completely destroyed by adversarial samples, while our studies found
that the middle feature layers of the DNN can still extract the effective
features of the original normal category in these adversarial attacks. To this
end, in this paper, a middle $\bold{F}$eature layer $\bold{A}$nalysis and
$\bold{C}$onditional $\bold{M}$atching prediction distribution (FACM) model is
proposed to increase the robustness of the DNN against adversarial samples
through correcting the output of DNN with the features extracted by the middle
layers of DNN. In particular, the middle $\bold{F}$eature layer
$\bold{A}$nalysis (FA) module, the conditional matching prediction distribution
(CMPD) module and the output decision module are included in our FACM model to
collaboratively correct the classification of adversarial samples. The
experiments results show that, our FACM model can significantly improve the
robustness of the naturally trained model against various attacks, and our FA
model can significantly improve the robustness of the adversarially trained
model against white-box attacks with weak transferability and black box attacks
where FA model includes the FA module and the output decision module, not the
CMPD module.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する強力な敵対的攻撃では、DNNの最終特徴層が敵のサンプルによって完全に破壊されている場合にのみDNNの出力が誤分類されるが、我々の研究は、DNNの中間特徴層がこれらの敵の攻撃において元の正規カテゴリーの有効特徴を抽出できることを発見した。
そこで本論文では, DNNの中間層から抽出したDNNの出力を補正することにより, DNNに対するDNNの堅牢性を高めるために, 中間層である$\bold{F}$eature layer $\bold{A}$nalysis and $\bold{C}$onditional $\bold{M}$atching Prediction Distribution (FACM)モデルを提案する。
特に,中間の$\bold{F}$eature layer $\bold{A}$nalysis (FA) モジュール,条件整合予測分布 (CMPD) モジュール,および出力決定モジュールをFACMモデルに含め,対向サンプルの分類を協調的に補正する。
実験の結果,我々のFACMモデルは様々な攻撃に対して自然に訓練されたモデルのロバスト性を著しく改善でき,また,FAPDモジュールではなくFAモジュールと出力決定モジュールを含むブラックボックス攻撃に対する敵に訓練されたモデルのロバスト性を著しく向上させることができることがわかった。
関連論文リスト
- Rectified Diffusion Guidance for Conditional Generation [62.00207951161297]
CFGの背後にある理論を再検討し、組合せ係数の不適切な構成(すなわち、広く使われている和対1バージョン)が生成分布の期待シフトをもたらすことを厳密に確認する。
本稿では,誘導係数を緩和したReCFGを提案する。
このようにして、修正された係数は観測されたデータをトラバースすることで容易に事前計算でき、サンプリング速度はほとんど影響を受けない。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Memory-guided Network with Uncertainty-based Feature Augmentation for Few-shot Semantic Segmentation [12.653336728447654]
学習可能なメモリベクトルの集合からなるクラス共有メモリ(CSM)モジュールを提案する。
これらのメモリベクトルは、トレーニング中にベースクラスから要素オブジェクトパターンを学習し、トレーニングと推論の両方でクエリ機能を再エンコードする。
我々は、CSMとUFAを代表的FSS作品に統合し、広く使われているPASCAL-5$i$とCOCO-20$i$データセットの実験結果を得た。
論文 参考訳(メタデータ) (2024-06-01T19:53:25Z) - Robust Class-Conditional Distribution Alignment for Partial Domain
Adaptation [0.7892577704654171]
部分的なドメイン適応設定の学習目的におけるプライベートソースカテゴリからの不要なサンプルは、負の転送を招き、分類性能を低下させる可能性がある。
既存の手法、例えば、ターゲット予測の再重み付けや集約などは、この問題に対して脆弱である。
提案手法は,一階のモーメントだけを深く掘り下げて,異なる,コンパクトなカテゴリー分布を導出することによって,これらの制限を克服しようとするものである。
論文 参考訳(メタデータ) (2023-10-18T15:49:46Z) - Semi-Supervised Domain Adaptation with Auto-Encoder via Simultaneous
Learning [18.601226898819476]
本稿では,新しい自動エンコーダベースのドメイン適応モデルと同時学習方式を組み合わせた半教師付きドメイン適応フレームワークを提案する。
我々のフレームワークは、ソースとターゲットのオートエンコーダの両方をトレーニングすることで、強力な分散マッチング特性を有する。
論文 参考訳(メタデータ) (2022-10-18T00:10:11Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Contradictory Structure Learning for Semi-supervised Domain Adaptation [67.89665267469053]
現在の逆順応法は、クロスドメインの特徴を整列させようとする。
1)条件分布ミスマッチ、2)決定境界のソース領域へのバイアス。
本稿では,対向構造の学習を統一することで,半教師付きドメイン適応のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T22:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。