論文の概要: OTAD: An Optimal Transport-Induced Robust Model for Agnostic Adversarial Attack
- arxiv url: http://arxiv.org/abs/2408.00329v1
- Date: Thu, 1 Aug 2024 07:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 21:25:51.970220
- Title: OTAD: An Optimal Transport-Induced Robust Model for Agnostic Adversarial Attack
- Title(参考訳): OTAD:Agnostic Adversarial Attackのための最適輸送誘導ロバストモデル
- Authors: Kuo Gai, Sicong Wang, Shihua Zhang,
- Abstract要約: ディープニューラルネットワーク(DNN)は入力の小さな逆方向の摂動に対して脆弱である。
本稿では,2段階の最適輸送誘導敵防衛モデルを提案する。
OTADは、ローカルリプシッツ連続性を保ちながら、トレーニングデータを正確に適合させることができる。
- 参考スコア(独自算出の注目度): 7.824226954174748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to small adversarial perturbations of the inputs, posing a significant challenge to their reliability and robustness. Empirical methods such as adversarial training can defend against particular attacks but remain vulnerable to more powerful attacks. Alternatively, Lipschitz networks provide certified robustness to unseen perturbations but lack sufficient expressive power. To harness the advantages of both approaches, we design a novel two-step Optimal Transport induced Adversarial Defense (OTAD) model that can fit the training data accurately while preserving the local Lipschitz continuity. First, we train a DNN with a regularizer derived from optimal transport theory, yielding a discrete optimal transport map linking data to its features. By leveraging the map's inherent regularity, we interpolate the map by solving the convex integration problem (CIP) to guarantee the local Lipschitz property. OTAD is extensible to diverse architectures of ResNet and Transformer, making it suitable for complex data. For efficient computation, the CIP can be solved through training neural networks. OTAD opens a novel avenue for developing reliable and secure deep learning systems through the regularity of optimal transport maps. Empirical results demonstrate that OTAD can outperform other robust models on diverse datasets.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、入力の小さな敵の摂動に弱いため、信頼性と堅牢性に大きな課題が生じる。
敵の訓練のような経験的手法は特定の攻撃に対して防御できるが、より強力な攻撃には弱いままである。
あるいは、リプシッツのネットワークは摂動を観測できないが、十分な表現力がないという証明された堅牢性を提供する。
両手法の利点を生かして,ローカルリプシッツ連続性を保ちながらトレーニングデータを正確に適合させることができる2段階の最適輸送誘導敵防衛(OTAD)モデルを設計する。
まず,DNNを最適輸送理論から導出した正規化器で訓練し,その特徴にデータをリンクする離散最適輸送マップを生成する。
写像の本質的正則性を活用することにより、凸積分問題(CIP)を解くことにより写像を補間し、局所リプシッツの性質を保証する。
OTADはResNetとTransformerの多様なアーキテクチャに拡張可能で、複雑なデータに適している。
効率的な計算のために、CIPはニューラルネットワークをトレーニングすることで解決できる。
OTADは、最適なトランスポートマップの規則性を通じて、信頼性とセキュアなディープラーニングシステムを開発するための新しい道を開く。
実証的な結果は、OTADがさまざまなデータセット上で、他の堅牢なモデルより優れていることを示している。
関連論文リスト
- Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robust Learning via Ensemble Density Propagation in Deep Neural Networks [6.0122901245834015]
本稿では,ディープニューラルネットワーク(DNN)の層を通した密度伝搬の問題を定式化し,それをエンサンブル密度伝搬法を用いて解く。
MNISTとCIFAR-10データセットを用いた実験は、ランダムノイズや敵攻撃に対するトレーニングモデルの堅牢性を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2021-11-10T21:26:08Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。