論文の概要: The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection
- arxiv url: http://arxiv.org/abs/2410.11576v1
- Date: Sat, 12 Oct 2024 07:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:03:55.067296
- Title: The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection
- Title(参考訳): 両世界のベスト:分布外検出のジレンマについて
- Authors: Qingyang Zhang, Qiuxuan Feng, Joey Tianyi Zhou, Yatao Bian, Qinghua Hu, Changqing Zhang,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出はモデル信頼性に不可欠である。
我々は,OODの一般化能力を秘かに犠牲にすることで,最先端手法のOOD検出性能が向上することを示す。
- 参考スコア(独自算出の注目度): 75.65876949930258
- License:
- Abstract: Out-of-distribution (OOD) detection is essential for model trustworthiness which aims to sensitively identify semantic OOD samples and robustly generalize for covariate-shifted OOD samples. However, we discover that the superior OOD detection performance of state-of-the-art methods is achieved by secretly sacrificing the OOD generalization ability. Specifically, the classification accuracy of these models could deteriorate dramatically when they encounter even minor noise. This phenomenon contradicts the goal of model trustworthiness and severely restricts their applicability in real-world scenarios. What is the hidden reason behind such a limitation? In this work, we theoretically demystify the ``\textit{sensitive-robust}'' dilemma that lies in many existing OOD detection methods. Consequently, a theory-inspired algorithm is induced to overcome such a dilemma. By decoupling the uncertainty learning objective from a Bayesian perspective, the conflict between OOD detection and OOD generalization is naturally harmonized and a dual-optimal performance could be expected. Empirical studies show that our method achieves superior performance on standard benchmarks. To our best knowledge, this work is the first principled OOD detection method that achieves state-of-the-art OOD detection performance without compromising OOD generalization ability. Our code is available at \href{https://github.com/QingyangZhang/DUL}{https://github.com/QingyangZhang/DUL}.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、セマンティックなOODサンプルを敏感に識別し、共変量シフトしたOODサンプルを堅牢に一般化することを目的としたモデル信頼性に不可欠である。
しかし, 最先端手法のOOD検出性能は, OOD一般化能力を秘かに犠牲にすることで達成できることが判明した。
特に、これらのモデルの分類精度は、小さなノイズに遭遇しても劇的に低下する可能性がある。
この現象は、モデル信頼性の目標と矛盾し、現実のシナリオにおけるそれらの適用性を厳しく制限する。
そのような制限の背後にある隠された理由は何でしょう?
そこで本研究では,既存のOOD検出手法における '`\textit{sensitive-robust}'' ジレンマを理論的にデミストする。
したがって、理論にインスパイアされたアルゴリズムはそのようなジレンマを克服するために誘導される。
ベイズの観点からの不確実性学習目標を分離することにより、OOD検出とOOD一般化の対立が自然に調和し、二重最適性能が期待できる。
実験により,本手法は標準ベンチマークよりも優れた性能を示すことが示された。
我々の知る限り、この研究はOODの一般化能力を損なうことなく最先端のOOD検出性能を実現する最初の原理的OOD検出手法である。
我々のコードは \href{https://github.com/QingyangZhang/DUL}{https://github.com/QingyangZhang/DUL} で入手できる。
関連論文リスト
- Out-of-Distribution Data: An Acquaintance of Adversarial Examples -- A Survey [7.891552999555933]
現実世界のアプリケーションにデプロイされるディープニューラルネットワーク(DNN)は、アウト・オブ・ディストリビューション(OOD)データや敵の例に遭遇する可能性がある。
伝統的に、OODの検出と敵の堅牢性は別の課題として対処されてきた。
本調査は, この2つの領域の交点に着目し, 研究コミュニティが共同研究を行った経緯について考察する。
論文 参考訳(メタデータ) (2024-04-08T06:27:38Z) - Towards Robust Out-of-Distribution Generalization Bounds via Sharpness [41.65692353665847]
モデルがドメインシフトにおけるデータ変化を許容する方法にシャープさが及ぼす影響について検討する。
強靭性を考慮したシャープネスに基づくOOD一般化を提案する。
論文 参考訳(メタデータ) (2024-03-11T02:57:27Z) - A Survey on Evaluation of Out-of-Distribution Generalization [41.39827887375374]
アウト・オブ・ディストリビューション(OOD)の一般化は複雑で基本的な問題である。
本報告は,OOD評価の総合的な評価を行うための最初の試みである。
我々は,OOD性能試験,OOD性能予測,OOD固有の特性評価という3つのパラダイムに分類した。
論文 参考訳(メタデータ) (2024-03-04T09:30:35Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Certifiably Adversarially Robust Detection of Out-of-Distribution Data [111.67388500330273]
我々は,OOD点における信頼度を低くすることで,OOD検出の証明可能な最悪のケースを保証することを目的としている。
トレーニング時に見られるOODデータセットを超えて一般化されたOODデータの信頼性の非自明な境界が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-16T17:16:47Z) - ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining [51.19164318924997]
インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-26T20:58:05Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。