論文の概要: Adversarial vulnerability of powerful near out-of-distribution detection
- arxiv url: http://arxiv.org/abs/2201.07012v1
- Date: Tue, 18 Jan 2022 14:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:09:49.478481
- Title: Adversarial vulnerability of powerful near out-of-distribution detection
- Title(参考訳): 強力近距離分布検出の逆脆弱性
- Authors: Stanislav Fort
- Abstract要約: 我々は,現在最強のOOD検出技術でさえも,深刻な敵意の脆弱性を示す。
入力画素に対する小さな目標摂動により、画像割当を非分布から非分布へ、簡単に変更することができる。
- 参考スコア(独自算出の注目度): 8.446798721296906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a significant progress in detecting out-of-distribution (OOD)
inputs in neural networks recently, primarily due to the use of large models
pretrained on large datasets, and an emerging use of multi-modality. We show a
severe adversarial vulnerability of even the strongest current OOD detection
techniques. With a small, targeted perturbation to the input pixels, we can
change the image assignment from an in-distribution to an out-distribution, and
vice versa, easily. In particular, we demonstrate severe adversarial
vulnerability on the challenging near OOD CIFAR-100 vs CIFAR-10 task, as well
as on the far OOD CIFAR-100 vs SVHN. We study the adversarial robustness of
several post-processing techniques, including the simple baseline of Maximum of
Softmax Probabilities (MSP), the Mahalanobis distance, and the newly proposed
\textit{Relative} Mahalanobis distance. By comparing the loss of OOD detection
performance at various perturbation strengths, we demonstrate the beneficial
effect of using ensembles of OOD detectors, and the use of the
\textit{Relative} Mahalanobis distance over other post-processing methods. In
addition, we show that even strong zero-shot OOD detection using CLIP and
multi-modality suffers from a severe lack of adversarial robustness as well.
Our code is available at
https://github.com/stanislavfort/adversaries_to_OOD_detection
- Abstract(参考訳): 近年、大規模データセットで事前トレーニングされた大規模モデルと、マルチモダリティ(multi-modality)の利用が主な原因で、ニューラルネットワークにおけるアウトオブディストリビューション(ood)入力の検出が大幅に進展している。
我々は,現在最強のOOD検出技術でさえも,深刻な敵意の脆弱性を示す。
入力画素に対する小さなターゲットの摂動によって、画像の割り当てを分布内から分布外に変更することができ、その逆も容易である。
特に, OOD CIFAR-100 対 CIFAR-10 タスク, 遠方の OOD CIFAR-100 対 SVHN タスクにおいて, 深刻な敵の脆弱性を示す。
本稿では,ソフトマックス確率の最大値(MSP),マハラノビス距離,新たに提案されたマハラノビス距離など,いくつかのポストプロセッシング手法の対角的ロバスト性について検討する。
種々の摂動強度におけるOOD検出性能の損失を比較することにより,OOD検出器のアンサンブルを用いた場合の有効効果と,他の後処理法に比べてマハラノビス距離が有効であることを示す。
また,CLIPと多モード性を用いた強いゼロショットOOD検出においても,対向的ロバスト性が著しく欠如していることが示唆された。
私たちのコードはhttps://github.com/stanislavfort/adversaries_to_OOD_detectionで利用可能です。
関連論文リスト
- The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection [75.65876949930258]
アウト・オブ・ディストリビューション(OOD)検出はモデル信頼性に不可欠である。
我々は,OODの一般化能力を秘かに犠牲にすることで,最先端手法のOOD検出性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-12T07:02:04Z) - How to Overcome Curse-of-Dimensionality for Out-of-Distribution
Detection? [29.668859994222238]
OOD検出のための新しいフレームワークSubspace Nearest Neighbor (SNN)を提案する。
トレーニングにおいて,本手法は次元の最も関連性の高い部分集合を利用してモデルとその特徴表現を正規化する。
現在の最良の距離ベースの手法と比較して、SNNはCIFAR-100ベンチマークで平均FPR95を15.96%削減している。
論文 参考訳(メタデータ) (2023-12-22T06:04:09Z) - Your Out-of-Distribution Detection Method is Not Robust! [0.4893345190925178]
オフ・オブ・ディストリビューション(OOD)検出は,信頼性と安全性において領域外サンプルを特定することの重要性から,近年注目されている。
この問題を緩和するために、最近いくつかの防衛策が提案されている。
我々は、より大きな摂動サイズを持つイン/アウトデータに対するエンドツーエンドのPGD攻撃に対して、これらの防御を再検討する。
論文 参考訳(メタデータ) (2022-09-30T05:49:00Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - Out-of-distribution Detection with Deep Nearest Neighbors [33.71627349163909]
アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界で機械学習モデルをデプロイするための重要なタスクである。
本稿では,OOD検出における非パラメトリック近接距離の有効性について検討する。
いくつかのベンチマークで最寄りのOOD検出の有効性を実証し,優れた性能を示す。
論文 参考訳(メタデータ) (2022-04-13T16:45:21Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z) - ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining [51.19164318924997]
インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-26T20:58:05Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。