論文の概要: Fine-grain Inference on Out-of-Distribution Data with Hierarchical
Classification
- arxiv url: http://arxiv.org/abs/2209.04493v1
- Date: Fri, 9 Sep 2022 18:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:39:25.834733
- Title: Fine-grain Inference on Out-of-Distribution Data with Hierarchical
Classification
- Title(参考訳): 階層型分類を用いた分布外データの微粒化推論
- Authors: Randolph Linderman, Jingyang Zhang, Nathan Inkawhich, Hai Li, Yiran
Chen
- Abstract要約: 我々は,入力がよりあいまいになるにつれて,様々な粒度の予測を行うOOD検出の新しいモデルを提案する。
細粒度OODタスクと粗粒度OODタスクの階層型分類器の有効性を示す。
- 参考スコア(独自算出の注目度): 37.05947324355846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning methods must be trusted to make appropriate decisions in
real-world environments, even when faced with out-of-distribution (OOD)
samples. Many current approaches simply aim to detect OOD examples and alert
the user when an unrecognized input is given. However, when the OOD sample
significantly overlaps with the training data, a binary anomaly detection is
not interpretable or explainable, and provides little information to the user.
We propose a new model for OOD detection that makes predictions at varying
levels of granularity as the inputs become more ambiguous, the model
predictions become coarser and more conservative. Consider an animal classifier
that encounters an unknown bird species and a car. Both cases are OOD, but the
user gains more information if the classifier recognizes that its uncertainty
over the particular species is too large and predicts bird instead of detecting
it as OOD. Furthermore, we diagnose the classifiers performance at each level
of the hierarchy improving the explainability and interpretability of the
models predictions. We demonstrate the effectiveness of hierarchical
classifiers for both fine- and coarse-grained OOD tasks.
- Abstract(参考訳): 機械学習の手法は、たとえood(out-of-distribution)サンプルに直面したとしても、現実世界の環境で適切な判断を行うように信頼されなければならない。
現在の多くのアプローチは、単にOODの例を検出し、未認識の入力が与えられたときにユーザーに警告することを目的としています。
しかし、OODサンプルがトレーニングデータと著しく重なり合う場合、バイナリ異常検出は解釈できないか説明できないため、ユーザにはほとんど情報を提供しない。
我々は,入力があいまいになり,モデル予測がより粗く,保守的になるにつれて,様々な粒度の予測を行うOOD検出の新しいモデルを提案する。
未知の鳥類と自動車に遭遇する動物分類器を考える。
どちらのケースもOODであるが、特定の種に対する不確実性が大きすぎることを認識し、OODとして検出する代わりに鳥を予測すると、ユーザがより多くの情報を得る。
さらに,分類器の性能を階層ごとに診断し,モデル予測の説明可能性や解釈可能性を向上させる。
細粒度OODタスクと粗粒度OODタスクの階層型分類器の有効性を示す。
関連論文リスト
- Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Using Semantic Information for Defining and Detecting OOD Inputs [3.9577682622066264]
アウト・オブ・ディストリビューション(OOD)検出は近年注目されている。
現在の検出器がトレーニングデータセットのバイアスを継承していることを示します。
これにより、現在のOOD検出器はトレーニング分布の外にある入力に不透過であり、同じ意味情報を持つことができる。
我々は,MNISTおよびCOCOデータセットのトレーニングデータから抽出した意味情報に基づいてOOD検出を行う。
論文 参考訳(メタデータ) (2023-02-21T21:31:20Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。