論文の概要: Learnable Boundary Guided Adversarial Training
- arxiv url: http://arxiv.org/abs/2011.11164v2
- Date: Mon, 16 Aug 2021 04:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:11:08.218364
- Title: Learnable Boundary Guided Adversarial Training
- Title(参考訳): 学習可能な境界誘導学習
- Authors: Jiequan Cui, Shu Liu, Liwei Wang, Jiaya Jia
- Abstract要約: 私たちは、あるクリーンモデルからのモデルロジットを使用して、別のロバストモデルの学習をガイドします。
我々は、CIFAR-100上で、追加の実データや合成データなしで、新しい最先端のロバスト性を実現する。
- 参考スコア(独自算出の注目度): 66.57846365425598
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Previous adversarial training raises model robustness under the compromise of
accuracy on natural data. In this paper, we reduce natural accuracy
degradation. We use the model logits from one clean model to guide learning of
another one robust model, taking into consideration that logits from the well
trained clean model embed the most discriminative features of natural data,
{\it e.g.}, generalizable classifier boundary. Our solution is to constrain
logits from the robust model that takes adversarial examples as input and makes
it similar to those from the clean model fed with corresponding natural data.
It lets the robust model inherit the classifier boundary of the clean model.
Moreover, we observe such boundary guidance can not only preserve high natural
accuracy but also benefit model robustness, which gives new insights and
facilitates progress for the adversarial community. Finally, extensive
experiments on CIFAR-10, CIFAR-100, and Tiny ImageNet testify to the
effectiveness of our method. We achieve new state-of-the-art robustness on
CIFAR-100 without additional real or synthetic data with auto-attack benchmark
\footnote{\url{https://github.com/fra31/auto-attack}}. Our code is available at
\url{https://github.com/dvlab-research/LBGAT}.
- Abstract(参考訳): 従来の敵対的訓練は、自然データに対する精度の妥協の下でモデルの堅牢性を高める。
本稿では,自然精度の劣化を低減する。
我々は、あるクリーンモデルからのモデルロジットを用いて、ある堅牢モデルの学習をガイドし、よく訓練されたクリーンモデルからのロジットが、自然データの最も識別性の高い特徴、例えば、一般化可能な分類境界を埋め込んでいることを考慮する。
我々の解決策は、逆例を入力とし、対応する自然データによって供給されるクリーンモデルと似たロジットを頑健なモデルから制約することである。
これにより、ロバストモデルがクリーンモデルの分類子境界を継承できる。
さらに,このような境界指導は,高い自然な正確性を維持するだけでなく,モデルの堅牢性にも寄与し,新たな洞察を与え,敵対的コミュニティの進展を促進する。
最後に,CIFAR-10,CIFAR-100,Tiny ImageNetの広範な実験により,本手法の有効性を確認した。
オートアタックベンチマーク \footnote{\url{https://github.com/fra31/auto-attack}} により,cifar-100における新たな最先端の堅牢性を実現する。
我々のコードは \url{https://github.com/dvlab-research/LBGAT} で入手できる。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - Trojan Model Detection Using Activation Optimization [15.032071953322594]
機械学習モデルのトレーニングは非常に費用がかからない。
事前訓練されたモデルはトロイア攻撃に感染することがある。
本稿では,トロイの木馬モデルを検出する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-08T02:17:29Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - One-Pixel Shortcut: on the Learning Preference of Deep Neural Networks [28.502489028888608]
Unlearnable Example (ULE) は、DNNのトレーニングのための不正使用からデータを保護することを目的としている。
逆行訓練では、誤り最小化ノイズの非学習性は著しく低下する。
本稿では,各画像の1ピクセルのみを摂動させ,データセットを学習不能にする,新しいモデルフリー手法であるemphOne-Pixel Shortcutを提案する。
論文 参考訳(メタデータ) (2022-05-24T15:17:52Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Adversarial Boot Camp: label free certified robustness in one epoch [7.51557557629519]
本稿では,信頼性の高いモデルを実現するための認証手法を提案する。
ラベル情報を使わずに、この損失でモデルを再訓練することで、ImageNet-1k上の認定モデルを実現する。
論文 参考訳(メタデータ) (2020-10-05T13:47:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。