論文の概要: Out-of-Distribution Data: An Acquaintance of Adversarial Examples -- A Survey
- arxiv url: http://arxiv.org/abs/2404.05219v1
- Date: Mon, 8 Apr 2024 06:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 15:23:43.577574
- Title: Out-of-Distribution Data: An Acquaintance of Adversarial Examples -- A Survey
- Title(参考訳): アウト・オブ・ディストリビューション(Out-of-Distribution)データ: 敵事例の知人 -- 調査
- Authors: Naveen Karunanayake, Ravin Gunawardena, Suranga Seneviratne, Sanjay Chawla,
- Abstract要約: 現実世界のアプリケーションにデプロイされるディープニューラルネットワーク(DNN)は、アウト・オブ・ディストリビューション(OOD)データや敵の例に遭遇する可能性がある。
伝統的に、OODの検出と敵の堅牢性は別の課題として対処されてきた。
本調査は, この2つの領域の交点に着目し, 研究コミュニティが共同研究を行った経緯について考察する。
- 参考スコア(独自算出の注目度): 7.891552999555933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) deployed in real-world applications can encounter out-of-distribution (OOD) data and adversarial examples. These represent distinct forms of distributional shifts that can significantly impact DNNs' reliability and robustness. Traditionally, research has addressed OOD detection and adversarial robustness as separate challenges. This survey focuses on the intersection of these two areas, examining how the research community has investigated them together. Consequently, we identify two key research directions: robust OOD detection and unified robustness. Robust OOD detection aims to differentiate between in-distribution (ID) data and OOD data, even when they are adversarially manipulated to deceive the OOD detector. Unified robustness seeks a single approach to make DNNs robust against both adversarial attacks and OOD inputs. Accordingly, first, we establish a taxonomy based on the concept of distributional shifts. This framework clarifies how robust OOD detection and unified robustness relate to other research areas addressing distributional shifts, such as OOD detection, open set recognition, and anomaly detection. Subsequently, we review existing work on robust OOD detection and unified robustness. Finally, we highlight the limitations of the existing work and propose promising research directions that explore adversarial and OOD inputs within a unified framework.
- Abstract(参考訳): 現実世界のアプリケーションにデプロイされるディープニューラルネットワーク(DNN)は、アウト・オブ・ディストリビューション(OOD)データや敵の例に遭遇する可能性がある。
これらは、DNNの信頼性と堅牢性に大きな影響を及ぼす可能性のある、分散シフトの異なる形態を表している。
伝統的に、OODの検出と敵の堅牢性は別の課題として対処されてきた。
本調査は, この2つの領域の交点に着目し, 研究コミュニティが共同研究を行った経緯について考察する。
その結果、ロバストOOD検出と統一ロバストネスの2つの主要な研究方向が明らかになった。
ロバストOOD検出は、OOD検出器を騙すために逆操作された場合でも、IDデータとODデータとを区別することを目的としている。
統一ロバストネスは、DNNを敵攻撃とOOD入力の両方に対して堅牢にするための単一のアプローチを求めている。
そこでまず,分布シフトの概念に基づく分類法を確立する。
このフレームワークは、OOD検出と統一ロバスト性が、OOD検出、オープンセット認識、異常検出などの分散シフトに対処する他の研究領域とどのように関係しているかを明らかにする。
続いて、ロバストOOD検出と統一ロバスト性に関する既存の研究についてレビューする。
最後に、既存の作業の限界を強調し、統一されたフレームワーク内での敵とOODの入力を探索する有望な研究方向を提案する。
関連論文リスト
- Out-of-Distribution Knowledge Distillation via Confidence Amendment [50.56321442948141]
標準ネットワークがトレーニングされるIDデータから逸脱するテストサンプルを特定するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
本稿では,IDデータのトレーニングが可能であるか否かを問う,先駆的な学習フレームワークであるOODナレッジ蒸留について紹介する。
このフレームワークは、標準ネットワークからOODに敏感な知識を活用し、IDとOODサンプルの識別に適したバイナリ分類器を構築する。
論文 参考訳(メタデータ) (2023-11-14T08:05:02Z) - General-Purpose Multi-Modal OOD Detection Framework [5.287829685181842]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
本稿では,2値分類器とコントラスト学習コンポーネントを組み合わせた,汎用的な弱教師付きOOD検出フレームワークWOODを提案する。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-24T18:50:49Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Is Out-of-Distribution Detection Learnable? [45.377641783085046]
我々は,OOD検出のほぼ正解(PAC)学習理論について検討した。
いくつかのシナリオにおいて、OOD検出の学習性に関するいくつかの不確実性定理を証明した。
そこで我々は,OOD検出の学習性を評価するために必要な条件をいくつか提示する。
論文 参考訳(メタデータ) (2022-10-26T13:35:19Z) - Generalized Out-of-Distribution Detection: A Survey [83.0449593806175]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習システムの信頼性と安全性を確保するために重要である。
その他の問題として、異常検出(AD)、新規検出(ND)、オープンセット認識(OSR)、異常検出(OD)などがある。
まず、上記の5つの問題を含む一般化OOD検出という統合されたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T17:59:41Z) - On the Impact of Spurious Correlation for Out-of-distribution Detection [14.186776881154127]
我々は、不変性と環境特性の両方を考慮して、データシフトをモデル化し、新しい形式化を提案する。
その結果, トレーニングセットにおいて, 突発的特徴とラベルの相関が大きくなると, 検出性能が著しく悪化することが示唆された。
論文 参考訳(メタデータ) (2021-09-12T23:58:17Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - MOOD: Multi-level Out-of-distribution Detection [13.207044902083057]
異常な入力がデプロイ中にモデルが失敗するのを防ぐには、分散アウト・ディストリビューション(OOD)検出が不可欠です。
動的かつ効率的なOOD推論のための中間分類器出力を利用する,新しいフレームワークであるマルチレベルアウトオブディストリビューション検出MOODを提案する。
MOODは、競合するOOD検出性能を維持しながら、推論における最大71.05%の計算削減を実現します。
論文 参考訳(メタデータ) (2021-04-30T02:18:31Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。