論文の概要: A Closer Look at the Adversarial Robustness of Information Bottleneck
Models
- arxiv url: http://arxiv.org/abs/2107.05712v1
- Date: Mon, 12 Jul 2021 20:05:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:38:37.193244
- Title: A Closer Look at the Adversarial Robustness of Information Bottleneck
Models
- Title(参考訳): 情報ボトルネックモデルの敵対的ロバスト性について
- Authors: Iryna Korshunova, David Stutz, Alexander A. Alemi, Olivia Wiles, Sven
Gowal
- Abstract要約: 以前の研究では、情報ボトルネックで訓練されたモデルの堅牢性は、敵の訓練によって改善されることが示された。
様々なホワイトボックスの$l_infty$攻撃による評価は、情報ボトルネックだけでは強力な防御戦略ではないことを示唆している。
- 参考スコア(独自算出の注目度): 87.89442166368983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the adversarial robustness of information bottleneck models for
classification. Previous works showed that the robustness of models trained
with information bottlenecks can improve upon adversarial training. Our
evaluation under a diverse range of white-box $l_{\infty}$ attacks suggests
that information bottlenecks alone are not a strong defense strategy, and that
previous results were likely influenced by gradient obfuscation.
- Abstract(参考訳): 分類のための情報ボトルネックモデルの逆強靭性について検討する。
以前の研究は、情報のボトルネックでトレーニングされたモデルの堅牢性が、逆のトレーニングによって改善されることを示した。
各種のホワイトボックス$l_{\infty}$アタックによる評価は,情報ボトルネックだけでは強力な防御戦略ではないことを示唆し,事前の結果は勾配難読化の影響を受けている可能性が示唆された。
関連論文リスト
- Singular Regularization with Information Bottleneck Improves Model's
Adversarial Robustness [30.361227245739745]
敵対的な例は、ディープラーニングモデルに対する最も深刻な脅威の1つです。
本研究では,非構造雑音として,明確なパターンを持たない逆情報について検討する。
本稿では,敵対情報を正規化し,情報ボトルネック理論を組み合わせるための新しいモジュールを提案する。
論文 参考訳(メタデータ) (2023-12-04T09:07:30Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Improving the Adversarial Robustness of NLP Models by Information
Bottleneck [112.44039792098579]
非破壊機能は敵によって容易に操作でき、NLPモデルを騙すことができる。
本研究では,情報ボトルネック理論を用いて,タスク固有のロバストな特徴を捕捉し,非ロバストな特徴を除去する可能性を検討する。
情報ボトルネックに基づく手法を用いてトレーニングしたモデルでは,ロバストな精度で大幅な改善が達成できることを示す。
論文 参考訳(メタデータ) (2022-06-11T12:12:20Z) - Beyond Gradients: Exploiting Adversarial Priors in Model Inversion
Attacks [7.49320945341034]
協調的な機械学習設定は、敵の干渉や攻撃に影響を受けやすい。
そのような攻撃の1つのクラスはモデル反転攻撃と呼ばれ、表現を抽出するためにモデルをリバースエンジニアリングする敵によって特徴づけられる。
本稿では、勾配に基づくモデル反転攻撃の基礎の上に構築された新しいモデル反転フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-01T14:22:29Z) - Impact of Attention on Adversarial Robustness of Image Classification
Models [0.9176056742068814]
ディープラーニングモデルに対するアドリアック攻撃が注目されている。
近年の研究では、これらの攻撃からモデルを守るための敵の例や技法の存在について説明がされている。
この研究は、相手の強靭性に対する注意の影響の一般的な理解を目的としている。
論文 参考訳(メタデータ) (2021-09-02T13:26:32Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。