論文の概要: Measuring the Effect of Causal Disentanglement on the Adversarial
Robustness of Neural Network Models
- arxiv url: http://arxiv.org/abs/2308.10708v1
- Date: Mon, 21 Aug 2023 13:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:30:23.809153
- Title: Measuring the Effect of Causal Disentanglement on the Adversarial
Robustness of Neural Network Models
- Title(参考訳): ニューラルネットワークモデルの逆ロバスト性に及ぼす因果的不等角の影響の測定
- Authors: Preben M. Ness, Dusica Marijan, Sunanda Bose
- Abstract要約: 因果ニューラルネットワークモデルは、敵の攻撃に対して高いレベルの堅牢性を示している。
このタイプの因果モデルによって達成される絡み合いのレベルは、まだ定量的に研究されていない。
- 参考スコア(独自算出の注目度): 1.3927943269211591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal Neural Network models have shown high levels of robustness to
adversarial attacks as well as an increased capacity for generalisation tasks
such as few-shot learning and rare-context classification compared to
traditional Neural Networks. This robustness is argued to stem from the
disentanglement of causal and confounder input signals. However, no
quantitative study has yet measured the level of disentanglement achieved by
these types of causal models or assessed how this relates to their adversarial
robustness.
Existing causal disentanglement metrics are not applicable to deterministic
models trained on real-world datasets. We, therefore, utilise metrics of
content/style disentanglement from the field of Computer Vision to measure
different aspects of the causal disentanglement for four state-of-the-art
causal Neural Network models. By re-implementing these models with a common
ResNet18 architecture we are able to fairly measure their adversarial
robustness on three standard image classification benchmarking datasets under
seven common white-box attacks. We find a strong association (r=0.820, p=0.001)
between the degree to which models decorrelate causal and confounder signals
and their adversarial robustness. Additionally, we find a moderate negative
association between the pixel-level information content of the confounder
signal and adversarial robustness (r=-0.597, p=0.040).
- Abstract(参考訳): 因果的ニューラルネットワークモデルは、敵の攻撃に対して高いレベルの堅牢性を示し、従来のニューラルネットワークと比較して、少数ショット学習やレアコンテキスト分類のような一般化タスクの能力も高まっている。
このロバスト性は因果関係と共起の入力信号の不連続に起因すると論じられている。
しかしながら、これらのタイプの因果モデルによって達成される絡み合いのレベルを定量的に測定したり、それがそれらの対向的堅牢性にどのように関係するかを評価することは、まだない。
既存の因果障害指標は、実世界のデータセットで訓練された決定論的モデルには適用できない。
そこで、我々は、コンピュータビジョンの分野におけるコンテンツ/スタイルの絡み合いのメトリクスを利用して、4つの最先端の因果ニューラルネットワークモデルにおける因果絡みの異なる側面を測定する。
これらのモデルを共通のresnet18アーキテクチャで再実装することで、7つの一般的なホワイトボックス攻撃の下で、3つの標準イメージ分類ベンチマークデータセットで、その逆のロバスト性を適切に測定することができる。
モデルが因果信号と共起信号とを分離する程度と、その逆ロバスト性との間に強い相関関係(r=0.820,p=0.001)が見いだされる。
さらに,共同創設者信号の画素レベルの情報内容と対向ロバスト性(r=-0.597,p=0.040)との間には,負の相関関係が認められた。
関連論文リスト
- From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Correlation Analysis between the Robustness of Sparse Neural Networks
and their Random Hidden Structural Priors [0.0]
本稿では,グラフ理論特性とスパースニューラルネットワークの頑健性との間にある既存の相関関係について検討することを目的とする。
我々の仮説は、ニューラルネットワーク構造の前駆体としてのグラフ理論的性質は、その堅牢性に関係している、というものである。
論文 参考訳(メタデータ) (2021-07-13T15:13:39Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。