論文の概要: LoD: Loss-difference OOD Detection by Intentionally Label-Noisifying Unlabeled Wild Data
- arxiv url: http://arxiv.org/abs/2505.12952v1
- Date: Mon, 19 May 2025 10:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.542012
- Title: LoD: Loss-difference OOD Detection by Intentionally Label-Noisifying Unlabeled Wild Data
- Title(参考訳): LoD:意図的ラベル付き未ラベルデータによる損失差OOD検出
- Authors: Chuanxing Geng, Qifei Li, Xinrui Wang, Dong Liang, Songcan Chen, Pong C. Yuen,
- Abstract要約: 本稿では,ラベル付き未ラベルデータを用いた新たな損失差OOD検出フレームワーク(LoD)を提案する。
このような操作により、ラベル付きIDデータとラベル付野生データのOODデータがモデル学習を共同で支配するだけでなく、ラベル付野生データのIDとOODサンプルの損失の識別性を確保することができる。
- 参考スコア(独自算出の注目度): 45.32174880762807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using unlabeled wild data containing both in-distribution (ID) and out-of-distribution (OOD) data to improve the safety and reliability of models has recently received increasing attention. Existing methods either design customized losses for labeled ID and unlabeled wild data then perform joint optimization, or first filter out OOD data from the latter then learn an OOD detector. While achieving varying degrees of success, two potential issues remain: (i) Labeled ID data typically dominates the learning of models, inevitably making models tend to fit OOD data as IDs; (ii) The selection of thresholds for identifying OOD data in unlabeled wild data usually faces dilemma due to the unavailability of pure OOD samples. To address these issues, we propose a novel loss-difference OOD detection framework (LoD) by \textit{intentionally label-noisifying} unlabeled wild data. Such operations not only enable labeled ID data and OOD data in unlabeled wild data to jointly dominate the models' learning but also ensure the distinguishability of the losses between ID and OOD samples in unlabeled wild data, allowing the classic clustering technique (e.g., K-means) to filter these OOD samples without requiring thresholds any longer. We also provide theoretical foundation for LoD's viability, and extensive experiments verify its superiority.
- Abstract(参考訳): In-distriion (ID) と Out-of-distriion (OOD) の2つのデータを含む未ラベルのワイルドデータを用いて、モデルの安全性と信頼性を向上させることが近年注目されている。
既存の方法では、ラベル付きIDとラベル付き野生データのカスタマイズされた損失を設計し、共同最適化を行うか、OODデータを後者からフィルタリングし、OOD検出器を学習する。
成功の度合いは様々だが、2つの潜在的な問題は残る。
(i)ラベル付きIDデータが一般的にモデルの学習を支配しており、必然的にOODデータをIDとして適合させる傾向がある。
2)未ラベルの野生データからOODデータを識別するためのしきい値の選択は,純粋なOODサンプルが利用できないため,通常ジレンマに直面する。
これらの問題に対処するため,未ラベルの野生データに対してtextit{intentionally label-noisifying} を用いた新しい損失差OOD検出フレームワーク (LoD) を提案する。
このような操作はラベル付きIDデータとOODデータをラベル付きワイルドデータに格納することで、モデルの学習を共同で支配するだけでなく、ラベル付きワイルドデータにおけるIDとOODサンプルの損失の識別性を保証し、従来のクラスタリング技術(例えばK-means)により、しきい値を必要としないOODサンプルをフィルタリングすることを可能にする。
また,LoDの生存可能性に関する理論的基盤も提供し,その優位性を検証した。
関連論文リスト
- How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - Exploiting Mixed Unlabeled Data for Detecting Samples of Seen and Unseen
Out-of-Distribution Classes [5.623232537411766]
現実世界のアプリケーションでは、アウト・オブ・ディストリビューション(OOD)検出が不可欠であり、近年注目を集めている。
既存のOOD検出方法は、多くのラベル付きIn-Distribution(ID)データを必要とするため、大量のラベル付けコストが発生する。
本稿では,限られたラベル付きデータと豊富なラベル付きデータが利用可能な,より現実的なシナリオに焦点を当てる。
混合ラベル付きデータから潜在的なIDとOODサンプルを適応的に選択する適応型In-Out-Aware Learning(AIOL)法を提案する。
論文 参考訳(メタデータ) (2022-10-13T08:34:25Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Supervision Adaptation Balancing In-distribution Generalization and
Out-of-distribution Detection [36.66825830101456]
In-distribution (ID) と Out-of-distribution (OOD) のサンプルは、ディープニューラルネットワークにおけるtextitdistributionalな脆弱性を引き起こす可能性がある。
我々は,OODサンプルに対する適応的な監視情報を生成するために,新しいテクスツパービジョン適応手法を導入し,IDサンプルとの互換性を高めた。
論文 参考訳(メタデータ) (2022-06-19T11:16:44Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - They are Not Completely Useless: Towards Recycling Transferable
Unlabeled Data for Class-Mismatched Semi-Supervised Learning [61.46572463531167]
SSL(Semi-Supervised Learning)とミスマッチしたクラスは、制限されたラベル付きデータにおける関心のクラスが、巨大なラベル付きデータに含まれるクラスのサブセットである、という問題に対処する。
本稿では,クラスミスマッチ型SSLを実現するために,TOOR(Transferable OOD data recycling)手法を提案する。
論文 参考訳(メタデータ) (2020-11-27T02:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。