論文の概要: Beckman Defense
- arxiv url: http://arxiv.org/abs/2301.01495v2
- Date: Thu, 5 Jan 2023 06:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:06:10.511336
- Title: Beckman Defense
- Title(参考訳): ベックマン防衛
- Authors: A. V. Subramanyam
- Abstract要約: 我々は,ベックマン・バリーセンタという新たなバリセンタを提案し,効率よく計算し,敵攻撃に対する防御のためにネットワークを訓練するために使用する。
ベックマン・バリセンターは、敵に訓練されたネットワークをトレーニングし、ロバスト性を向上させることができることを示す。
CIFAR-10、CIFAR-100、Tiny ImageNetでの実験により、ベックマン・バリセンターと対向的に堅牢なネットワークをトレーニングすることで、性能が大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal transport (OT) based distributional robust optimisation (DRO) has
received some traction in the recent past. However, it is at a nascent stage
but has a sound potential in robustifying the deep learning models.
Interestingly, OT barycenters demonstrate a good robustness against adversarial
attacks. Owing to the computationally expensive nature of OT barycenters, they
have not been investigated under DRO framework. In this work, we propose a new
barycenter, namely Beckman barycenter, which can be computed efficiently and
used for training the network to defend against adversarial attacks in
conjunction with adversarial training. We propose a novel formulation of
Beckman barycenter and analytically obtain the barycenter using the marginals
of the input image. We show that the Beckman barycenter can be used to train
adversarially trained networks to improve the robustness. Our training is
extremely efficient as it requires only a single epoch of training. Elaborate
experiments on CIFAR-10, CIFAR-100 and Tiny ImageNet demonstrate that training
an adversarially robust network with Beckman barycenter can significantly
increase the performance. Under auto attack, we get a a maximum boost of 10\%
in CIFAR-10, 8.34\% in CIFAR-100 and 11.51\% in Tiny ImageNet. Our code is
available at
https://github.com/Visual-Conception-Group/test-barycentric-defense.
- Abstract(参考訳): 最適輸送 (OT) に基づく分散ロバスト最適化 (DRO) は近年, 注目を集めている。
しかし、これは初期段階にあるが、深層学習モデルの堅牢化には大きな可能性を秘めている。
興味深いことに、OTバリセンターは敵の攻撃に対して良好な堅牢性を示す。
OTバリセンタの計算的高価さのため、DROフレームワーク下では研究されていない。
そこで本研究では,対向訓練と連動して,対向攻撃に対してネットワークを防御する訓練を行うため,効率的に計算できる新しいバリセンタであるベックマン・バリセンタを提案する。
本稿では, 入力画像の辺縁を用いて, beckman barycenter の新しい定式化法を提案し, 解析的にbarycenter を得る。
ベックマン・バリセンターは、敵に訓練されたネットワークをトレーニングし、ロバスト性を向上させることができることを示す。
私たちの訓練は一時期の訓練しか必要としないので、非常に効率的です。
CIFAR-10、CIFAR-100、Tiny ImageNetの実験により、ベックマン・バリセンターと対向的に堅牢なネットワークをトレーニングすることで、性能が大幅に向上することを示した。
自動攻撃では、CIFAR-10では最大10\%、CIFAR-100では8.34\%、Tiny ImageNetでは11.51\%となる。
私たちのコードはhttps://github.com/Visual-Conception-Group/test-barycentric-defenseで利用可能です。
関連論文リスト
- MeanSparse: Post-Training Robustness Enhancement Through Mean-Centered Feature Sparsification [32.70084821901212]
MeanSparseは、敵の例に対する畳み込みと注意に基づくニューラルネットワークの堅牢性を改善する方法である。
実験の結果,MeanSparseは75.28%の新しいロバストネス記録を達成した。
論文 参考訳(メタデータ) (2024-06-09T22:14:55Z) - Estimating Barycenters of Distributions with Neural Optimal Transport [93.28746685008093]
本稿では,Wasserstein Barycenter問題を解くための新しいスケーラブルなアプローチを提案する。
我々の手法は最近のNeural OTソルバをベースとしている。
また,提案手法の理論的誤差境界も確立する。
論文 参考訳(メタデータ) (2024-02-06T09:17:07Z) - Enhancing Adversarial Training via Reweighting Optimization Trajectory [72.75558017802788]
余分な正規化、敵の重み付け、より多くのデータによるトレーニングといった欠点に対処するいくつかのアプローチが提案されている。
本稿では, 時間内学習の最適化トラジェクトリを利用するtextbfWeighted Optimization Trajectories (WOT) を提案する。
以上の結果から,WOTは既存の対人訓練手法とシームレスに統合され,頑健なオーバーフィッティング問題を一貫して克服していることがわかった。
論文 参考訳(メタデータ) (2023-06-25T15:53:31Z) - Do we need entire training data for adversarial training? [2.995087247817663]
我々は, 対人訓練のためのトレーニングデータのサブセットのみを用いることで, 任意の対人訓練アルゴリズムのトレーニング時間を短縮できることを示す。
逆行性サブセットで逆行訓練を行い、データセット全体のバニラトレーニングと組み合わせる。
その結果,本手法をFGSMにプラグインした場合,MNISTでは3.52倍,CIFAR-10データセットでは1.98倍の高速化を実現することができた。
論文 参考訳(メタデータ) (2023-03-10T23:21:05Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Mutual Adversarial Training: Learning together is better than going
alone [82.78852509965547]
モデル間の相互作用が知識蒸留による堅牢性に与える影響について検討する。
本稿では,複数のモデルを同時に訓練する相互対人訓練(MAT)を提案する。
MATは、ホワイトボックス攻撃下で、モデル堅牢性と最先端メソッドを効果的に改善することができる。
論文 参考訳(メタデータ) (2021-12-09T15:59:42Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。