論文の概要: Out-of-distribution Partial Label Learning
- arxiv url: http://arxiv.org/abs/2403.06681v3
- Date: Sat, 1 Jun 2024 05:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 11:33:55.632919
- Title: Out-of-distribution Partial Label Learning
- Title(参考訳): アウト・オブ・ディストリビューション部分ラベル学習
- Authors: Jintao Huang, Yiu-Ming Cheung, Chi-Man Vong,
- Abstract要約: 部分ラベル学習(Partial Label Learning, PLL)は、トレーニングとテストオブジェクトが同じ分布にあるという前提の下で、不正確なラベルを持つデータからモデル学習に取り組む。
この仮定は、テストデータがout-Of-Distribution (OOD)から来るかもしれない実世界のオープンセットのシナリオには当てはまらない。
これは、新たに提案したPLOODフレームワークが効果的に解決できる、Out-Of-DistributionPLLと呼ばれる未探索の問題である。
- 参考スコア(独自算出の注目度): 37.23754625256131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial Label Learning (PLL) tackles model learning from the data with inexact labels under the assumption that training and test objects are in the same distribution, i.e., closed-set scenario. Nevertheless, this assumption does not hold in real-world open-set scenarios where test data may come from Out-Of-Distribution (OOD), resulting in object detection failure and hence significantly compromising the PLL model's security and trustworthiness. This is a previously unexplored problem called Out-Of-Distribution Partial Label Learning (OODPLL) that our newly proposed PLOOD framework can effectively resolve. During the training phase, our framework leverages self-supervised learning strategy to generate positive and negative samples for each object, emulating in and out-of-distributions respectively. Under these distributions, PLL methods can learn discriminative features for OOD objects. In the inference phase, a novel Partial Energy (PE) scoring technique is proposed which leverages the label confidence established during the above training phase to mine the actual labels. In this way, the issue of inexact labeling in PLL can be effectively addressed for significantly better performance in OOD object detection. PLOOD is compared with SOTA PLL models and OOD scores on CIFAR-10 and CIFAR-100 datasets against various OOD datasets. The results demonstrate the effectiveness of our PLOOD framework, significantly outperforming SOTA PLL models and marking a substantial advancement in addressing PLL problems in real-world OOD scenarios.
- Abstract(参考訳): 部分ラベル学習(Partial Label Learning, PLL)は、トレーニングとテストオブジェクトが同じ分布、すなわちクローズドセットシナリオにあるという仮定の下で、不正確なラベルを持つデータからモデル学習に取り組む。
しかしながら、この仮定は、テストデータがout-Of-Distribution (OOD)から来る可能性がある実世界のオープンセットのシナリオには当てはまらない。
これは、新たに提案したPLOODフレームワークが効果的に解決できるOODPLL(Out-Of-Distribution partial Label Learning)と呼ばれる未探索の問題である。
学習段階において,本フレームワークは自己指導型学習戦略を利用して,各対象に対して正と負のサンプルを生成し,それぞれ分布内と外分布内をエミュレートする。
これらの分布の下で、PLL法はOODオブジェクトの識別的特徴を学習することができる。
推論フェーズでは,上記のトレーニングフェーズで確立されたラベル信頼を利用して,実際のラベルをマイニングする新しい部分エネルギー(PE)スコアリング手法が提案されている。
このようにして、PLLにおける不正確なラベリングの問題は、OODオブジェクト検出の大幅な性能向上のために効果的に対処できる。
PLOODは、様々なOODデータセットに対して、CIFAR-10およびCIFAR-100データセット上のSOTA PLLモデルとOODスコアと比較される。
その結果,PLOODフレームワークの有効性を実証し,SOTA PLLモデルより大幅に優れ,現実世界のOODシナリオにおけるPLL問題に対処する上での大幅な進歩を示すことができた。
関連論文リスト
- COOD: Concept-based Zero-shot OOD Detection [12.361461338978732]
ゼロショットマルチラベルOOD検出フレームワークであるCOODを紹介する。
ラベルごとに肯定的概念と否定的概念の両方で意味空間を豊かにすることにより、我々のアプローチは複雑なラベル依存をモデル化する。
提案手法は既存のアプローチよりも優れており,VOCとデータセットの両方で平均95%のAUROCを実現している。
論文 参考訳(メタデータ) (2024-11-15T08:15:48Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Class Relevance Learning For Out-of-distribution Detection [16.029229052068]
本稿では,OOD検出に適したクラス関連学習手法を提案する。
本手法は,OODパイプライン内のクラス間関係を戦略的に活用し,総合的なクラス関連学習フレームワークを確立する。
論文 参考訳(メタデータ) (2023-09-21T08:38:21Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。