論文の概要: Intrinsic Biologically Plausible Adversarial Training
- arxiv url: http://arxiv.org/abs/2309.17348v4
- Date: Sun, 11 Feb 2024 14:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 22:18:43.345468
- Title: Intrinsic Biologically Plausible Adversarial Training
- Title(参考訳): 内因性生物学的にプラウザブルな対人訓練
- Authors: Matilde Tristany Farinha, Thomas Ortner, Giorgia Dellaferrera,
Benjamin Grewe, Angeliki Pantazi
- Abstract要約: 逆行訓練はこの問題を軽減することが証明されているが、高い計算コストが伴う。
ANNとは対照的に、人間は同じ敵のサンプルを誤分類することは許されない。
PEPITAは内向的対向性が高く、対向的に訓練された場合には、より好ましい自然対逆的パフォーマンストレードオフを持つ。
- 参考スコア(独自算出の注目度): 5.903352816695636
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial Neural Networks (ANNs) trained with Backpropagation (BP) excel in
different daily tasks but have a dangerous vulnerability: inputs with small
targeted perturbations, also known as adversarial samples, can drastically
disrupt their performance. Adversarial training, a technique in which the
training dataset is augmented with exemplary adversarial samples, is proven to
mitigate this problem but comes at a high computational cost. In contrast to
ANNs, humans are not susceptible to misclassifying these same adversarial
samples, so one can postulate that biologically-plausible trained ANNs might be
more robust against adversarial attacks. Choosing as a case study the
biologically-plausible learning algorithm Present the Error to Perturb the
Input To modulate Activity (PEPITA), we investigate this question through a
comparative analysis with BP-trained ANNs on various computer vision tasks. We
observe that PEPITA has a higher intrinsic adversarial robustness and, when
adversarially trained, has a more favorable natural-vs-adversarial performance
trade-off since, for the same natural accuracies, PEPITA's adversarial
accuracies decrease in average only by 0.26% while BP's decrease by 8.05%.
- Abstract(参考訳): バックプロパゲーション(BP)でトレーニングされた人工ニューラルネットワーク(ANN)は、さまざまな日常的なタスクで優れているが、危険な脆弱性がある。
学習データセットに模範的な敵意的なサンプルを付加する手法であるadversarial trainingは、この問題を緩和するが計算コストが高いことが証明されている。
ANNとは対照的に、人間は同じ敵のサンプルを誤分類することはあり得ないため、生物学的に証明可能な訓練されたANNは敵の攻撃に対してより堅牢である可能性があると仮定することができる。
生物学的に有望な学習アルゴリズムを事例として,PEPITA (Input To modulate Activity) を乱す誤りを提示し,様々なコンピュータビジョンタスクにおけるBP学習ANNとの比較分析により検討した。
PEPITAは内向的対向性が高く, 対向的に訓練された場合には, 同じ自然精度において, PEPITAの対向性は平均0.26%低下する一方, BPの対向性は8.05%低下する。
関連論文リスト
- F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Improving Adversarial Robustness via Mutual Information Estimation [144.33170440878519]
ディープニューラルネットワーク(DNN)は、敵の雑音に弱い。
本稿では,情報理論の観点から,対象モデルの出力と入力対向サンプルの依存性について検討する。
本稿では,自然MIの最大化と,学習過程における敵MIの最小化により,敵ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2022-07-25T13:45:11Z) - Understanding the Logit Distributions of Adversarially-Trained Deep
Neural Networks [6.439477789066243]
敵の防御は、敵の攻撃による入力摂動に不変であるように、ディープニューラルネットワークを訓練する。
敵の攻撃を緩和するためには敵の訓練が成功しているが、敵の訓練を受けた(AT)モデルと標準モデルとの行動的差異はいまだに理解されていない。
対向性学習に不可欠な3つのロジット特性を同定する。
論文 参考訳(メタデータ) (2021-08-26T19:09:15Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Increasing-Margin Adversarial (IMA) Training to Improve Adversarial
Robustness of Neural Networks [2.2977141788872366]
敵の訓練は 敵の騒音に対する モデルの頑丈さを向上させる
過度なノイズを持つ 敵の訓練サンプルは 標準的な精度を損なう
本稿では,IMAと呼ばれる適応的対角訓練手法を提案する。
論文 参考訳(メタデータ) (2020-05-19T00:26:52Z) - Improving the affordability of robustness training for DNNs [11.971637253035107]
逆行訓練の初期段階は冗長であり、計算効率を大幅に向上させる自然な訓練に置き換えることができることを示す。
提案手法は, 各種敵攻撃の強みに対するモデルテスト精度と一般化により, 最大2.5倍の訓練時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-02-11T07:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。