論文の概要: On the detection of Out-Of-Distribution samples in Multiple Instance
Learning
- arxiv url: http://arxiv.org/abs/2309.05528v1
- Date: Mon, 11 Sep 2023 15:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 11:57:11.739886
- Title: On the detection of Out-Of-Distribution samples in Multiple Instance
Learning
- Title(参考訳): 複数インスタンス学習における分散サンプルの検出について
- Authors: Lo\"ic Le Bescond, Maria Vakalopoulou, Stergios Christodoulidis,
Fabrice Andr\'e, Hugues Talbot
- Abstract要約: ポストホックなOOD検出手法をMIL(Multiple Instance Learning)設定に適用する。
弱教師付きシナリオにおけるOOD検出性能の評価に特化して設計された新しいベンチマークを導入する。
DICEは全体として最高のパフォーマンスの方法として現れるが、いくつかのデータセットには重大な欠点がある。
- 参考スコア(独自算出の注目度): 3.7522961105956
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The deployment of machine learning solutions in real-world scenarios often
involves addressing the challenge of out-of-distribution (OOD) detection. While
significant efforts have been devoted to OOD detection in classical supervised
settings, the context of weakly supervised learning, particularly the Multiple
Instance Learning (MIL) framework, remains under-explored. In this study, we
tackle this challenge by adapting post-hoc OOD detection methods to the MIL
setting while introducing a novel benchmark specifically designed to assess OOD
detection performance in weakly supervised scenarios. Extensive experiments
based on diverse public datasets do not reveal a single method with a clear
advantage over the others. Although DICE emerges as the best-performing method
overall, it exhibits significant shortcomings on some datasets, emphasizing the
complexity of this under-explored and challenging topic. Our findings shed
light on the complex nature of OOD detection under the MIL framework,
emphasizing the importance of developing novel, robust, and reliable methods
that can generalize effectively in a weakly supervised context. The code for
the paper is available here: https://github.com/loic-lb/OOD_MIL.
- Abstract(参考訳): 機械学習ソリューションを現実のシナリオに展開するには、アウト・オブ・ディストリビューション(OOD)検出の課題に対処する必要があることが多い。
古典的教師付き環境でのood検出に多大な努力がなされているが、弱い教師付き学習、特にmultiple instance learning (mil)フレームワークの文脈は未調査のままである。
本研究では,弱教師付きシナリオにおけるOOD検出性能の評価に特化して設計された新しいベンチマークを導入しながら,ポストホックなOOD検出手法をMIL設定に適用することにより,この問題に対処する。
多様な公開データセットに基づく大規模な実験は、他のものよりも明確な優位性を持つ1つの方法を明らかにしない。
DICEは全体として最高のパフォーマンスの方法として現れるが、いくつかのデータセットには重大な欠点があり、この未探索で挑戦的なトピックの複雑さを強調している。
MILフレームワーク下でのOOD検出の複雑な性質に光を当て、弱教師付き文脈で効果的に一般化できる新規で堅牢で信頼性の高い手法の開発の重要性を強調した。
論文のコードは、https://github.com/loic-lb/OOD_MIL.comで公開されている。
関連論文リスト
- Dissecting Out-of-Distribution Detection and Open-Set Recognition: A Critical Analysis of Methods and Benchmarks [17.520137576423593]
我々は,コミュニティ内の2つの大きなサブフィールドの総合的なビュー – アウト・オブ・ディストリビューション(OOD)検出とオープンセット認識(OSR) – を提供することを目指している。
我々は,OOD検出における最先端手法とOSR設定との厳密な相互評価を行い,それらの手法の性能の強い相関関係を同定する。
我々は,OOD検出とOSRによって取り組まれている問題を解消する,より大規模なベンチマーク設定を提案する。
論文 参考訳(メタデータ) (2024-08-29T17:55:07Z) - Generalized Out-of-Distribution Detection and Beyond in Vision Language Model Era: A Survey [107.08019135783444]
VLM時代のAD, ND, OSR, OOD, ODの進化をカプセル化した一般OOD検出v2を提案する。
我々のフレームワークは、いくつかのフィールド不活性と統合により、要求される課題がOOD検出とADになっていることを明らかにしている。
論文 参考訳(メタデータ) (2024-07-31T17:59:58Z) - Rethinking Out-of-Distribution Detection for Reinforcement Learning: Advancing Methods for Evaluation and Detection [3.7384109981836158]
強化学習(RL)におけるアウト・オブ・ディストリビューション(OOD)検出の問題点について検討する。
本稿では、RLにおけるOOD検出の用語の明確化を提案し、他の機械学習分野の文献と整合する。
OOD検出のための新しいベンチマークシナリオを提案し、エージェント環境ループの異なるコンポーネントに時間的自己相関を伴う異常を導入する。
DEXTERはベンチマークシナリオ間の異常を確実に識別でき、統計から得られた最先端のOOD検出器や高次元変化点検出器と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-10T15:39:49Z) - Out-of-Distribution Detection Using Peer-Class Generated by Large Language Model [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、マシンラーニングモデルの信頼性とセキュリティを確保するための重要なタスクである。
本稿では,ODPCと呼ばれる新しい手法を提案し,大規模言語モデルを用いてOODピア・セマンティクスのクラスを生成する。
5つのベンチマークデータセットの実験により,提案手法は最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2024-03-20T06:04:05Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - General-Purpose Multi-Modal OOD Detection Framework [5.287829685181842]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
本稿では,2値分類器とコントラスト学習コンポーネントを組み合わせた,汎用的な弱教師付きOOD検出フレームワークWOODを提案する。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-24T18:50:49Z) - Classical Out-of-Distribution Detection Methods Benchmark in Text
Classification Tasks [0.0]
最先端モデルは、制御された環境でうまく機能するが、アウト・オブ・ディストリビューション(OOD)の例を提示すると、しばしば苦労する。
本稿では,NLPにおけるOOD検出に対する既存のアプローチの限界を強調することに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-13T18:06:12Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - OpenOOD: Benchmarking Generalized Out-of-Distribution Detection [60.13300701826931]
アウト・オブ・ディストリビューション(OOD)検出は、安全クリティカルな機械学習アプリケーションにとって不可欠である。
この分野では現在、統一的で厳格に定式化され、包括的なベンチマークが欠けている。
関連フィールドで開発された30以上のメソッドを実装したOpenOODという,統一的で構造化されたシステムを構築します。
論文 参考訳(メタデータ) (2022-10-13T17:59:57Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。