論文の概要: Intrinsic Biologically Plausible Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2309.17348v5
- Date: Sat, 1 Jun 2024 14:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 20:50:48.275712
- Title: Intrinsic Biologically Plausible Adversarial Robustness
- Title(参考訳): 内因性生物学的にプラウザブルな対人ロバスト性
- Authors: Matilde Tristany Farinha, Thomas Ortner, Giorgia Dellaferrera, Benjamin Grewe, Angeliki Pantazi,
- Abstract要約: 逆行訓練はこの問題を軽減することが証明されているが、高い計算コストが伴う。
本研究は,生物に有望な学習アルゴリズムであるPresent the Error to Perturb the Input To modulate Activity (PEPITA)を事例として選択した。
PEPITAは内向的対向的強靭性と頑健性が高く、対向的に訓練された場合、より好ましい自然対向的性能トレードオフを有する。
- 参考スコア(独自算出の注目度): 5.50251673510158
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial Neural Networks (ANNs) trained with Backpropagation (BP) excel in different daily tasks but have a dangerous vulnerability: inputs with small targeted perturbations, also known as adversarial samples, can drastically disrupt their performance. Adversarial training, a technique in which the training dataset is augmented with exemplary adversarial samples, is proven to mitigate this problem but comes at a high computational cost. In contrast to ANNs, humans are not susceptible to misclassifying these same adversarial samples. Thus, one can postulate that biologically-plausible trained ANNs might be more robust against adversarial attacks. In this work, we chose the biologically-plausible learning algorithm Present the Error to Perturb the Input To modulate Activity (PEPITA) as a case study and investigated this question through a comparative analysis with BP-trained ANNs on various computer vision tasks. We observe that PEPITA has a higher intrinsic adversarial robustness and, when adversarially trained, also has a more favorable natural-vs-adversarial performance trade-off. In particular, for the same natural accuracies on the MNIST task, PEPITA's adversarial accuracies decrease on average only by 0.26% while BP's decrease by 8.05%.
- Abstract(参考訳): バックプロパゲーション(BP)でトレーニングされた人工ニューラルネットワーク(ANN)は、さまざまな日常的なタスクをエクササイズするが、危険な脆弱性がある。
トレーニングデータセットを模範的な逆数サンプルで拡張する手法である逆数トレーニングは、この問題を軽減するために証明されているが、高い計算コストが伴う。
ANNとは対照的に、人間は同じ敵のサンプルを誤分類することは許されない。
したがって、生物学的に証明可能な訓練されたANNは敵の攻撃に対してより堅牢である可能性があると仮定できる。
本研究は,PEPITA(Inject the Error to Perturb the Input To modulate Activity)をケーススタディとして選択し,様々なコンピュータビジョンタスクにおけるBP学習ANNとの比較分析により検討した。
PEPITAは内向的対向性が高く、対向的に訓練された場合には、より好ましい自然対向的パフォーマンストレードオフを持つ。
特に、MNISTタスク上の同じ自然検定の場合、PEPITAの逆検定は平均0.26%しか減少せず、BPは8.05%減少している。
関連論文リスト
- F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Improving Adversarial Robustness via Mutual Information Estimation [144.33170440878519]
ディープニューラルネットワーク(DNN)は、敵の雑音に弱い。
本稿では,情報理論の観点から,対象モデルの出力と入力対向サンプルの依存性について検討する。
本稿では,自然MIの最大化と,学習過程における敵MIの最小化により,敵ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2022-07-25T13:45:11Z) - Understanding the Logit Distributions of Adversarially-Trained Deep
Neural Networks [6.439477789066243]
敵の防御は、敵の攻撃による入力摂動に不変であるように、ディープニューラルネットワークを訓練する。
敵の攻撃を緩和するためには敵の訓練が成功しているが、敵の訓練を受けた(AT)モデルと標準モデルとの行動的差異はいまだに理解されていない。
対向性学習に不可欠な3つのロジット特性を同定する。
論文 参考訳(メタデータ) (2021-08-26T19:09:15Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Increasing-Margin Adversarial (IMA) Training to Improve Adversarial
Robustness of Neural Networks [2.2977141788872366]
敵の訓練は 敵の騒音に対する モデルの頑丈さを向上させる
過度なノイズを持つ 敵の訓練サンプルは 標準的な精度を損なう
本稿では,IMAと呼ばれる適応的対角訓練手法を提案する。
論文 参考訳(メタデータ) (2020-05-19T00:26:52Z) - Improving the affordability of robustness training for DNNs [11.971637253035107]
逆行訓練の初期段階は冗長であり、計算効率を大幅に向上させる自然な訓練に置き換えることができることを示す。
提案手法は, 各種敵攻撃の強みに対するモデルテスト精度と一般化により, 最大2.5倍の訓練時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-02-11T07:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。