論文の概要: Out-Of-Distribution Detection with Diversification (Provably)
- arxiv url: http://arxiv.org/abs/2411.14049v1
- Date: Thu, 21 Nov 2024 11:56:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:20:04.816135
- Title: Out-Of-Distribution Detection with Diversification (Provably)
- Title(参考訳): 多様化による外部分布検出(おそらく)
- Authors: Haiyun Yao, Zongbo Han, Huazhu Fu, Xi Peng, Qinghua Hu, Changqing Zhang,
- Abstract要約: 機械学習モデルの信頼性確保には、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
近年の進歩は、トレーニングにおいて容易にアクセス可能な補助的外れ値(例えば、Webや他のデータセットのデータ)を活用することに焦点を当てている。
本稿では,OOD検出のためのダイバーシティ誘導混合法(diversity-induced Mixup for OOD detection,diverseMix)を提案する。
- 参考スコア(独自算出の注目度): 75.44158116183483
- License:
- Abstract: Out-of-distribution (OOD) detection is crucial for ensuring reliable deployment of machine learning models. Recent advancements focus on utilizing easily accessible auxiliary outliers (e.g., data from the web or other datasets) in training. However, we experimentally reveal that these methods still struggle to generalize their detection capabilities to unknown OOD data, due to the limited diversity of the auxiliary outliers collected. Therefore, we thoroughly examine this problem from the generalization perspective and demonstrate that a more diverse set of auxiliary outliers is essential for enhancing the detection capabilities. However, in practice, it is difficult and costly to collect sufficiently diverse auxiliary outlier data. Therefore, we propose a simple yet practical approach with a theoretical guarantee, termed Diversity-induced Mixup for OOD detection (diverseMix), which enhances the diversity of auxiliary outlier set for training in an efficient way. Extensive experiments show that diverseMix achieves superior performance on commonly used and recent challenging large-scale benchmarks, which further confirm the importance of the diversity of auxiliary outliers.
- Abstract(参考訳): 機械学習モデルの信頼性確保には、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
最近の進歩は、トレーニングにおいて容易にアクセス可能な補助的外れ値(例えば、Webや他のデータセットからのデータ)を活用することに焦点を当てている。
しかし,これらの手法は,検出能力を未知のOODデータに一般化するのに依然として苦慮していることが明らかとなった。
そこで, この問題を一般化の観点から徹底的に検討し, 検出能力を向上するためには, より多様な補助外乱器セットが不可欠であることを示す。
しかし、実際には十分な多様な補助的外れ値データを集めることは困難で費用がかかる。
そこで本研究では,OOD検出のためのダイバーシティ誘導混合(diversity-induced Mixup for OOD detection, diverseMix)と呼ばれる理論的保証付き簡易かつ実用的な手法を提案する。
広汎な実験により、多彩なMixは、一般的に使われている、そして最近の挑戦的な大規模ベンチマークにおいて優れた性能を達成し、補助的な外れ値の多様性の重要性をさらに確認している。
関連論文リスト
- Robust Offline Imitation Learning from Diverse Auxiliary Data [33.14745744587572]
オフラインの模倣学習は、専門家による一連のデモンストレーションからのみポリシーを学ぶことができる。
最近の研究には、専門家データとともに多数の補助的なデモンストレーションが組み込まれている。
逆補助データ(ROIDA)からのロバストオフライン模倣を提案する。
論文 参考訳(メタデータ) (2024-10-04T17:30:54Z) - Leveraging Mixture of Experts for Improved Speech Deepfake Detection [53.69740463004446]
スピーチのディープフェイクは、個人のセキュリティとコンテンツの信頼性に重大な脅威をもたらす。
本研究では,Mixture of Expertsアーキテクチャを用いた音声深度検出性能の向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-24T13:24:03Z) - The Curse of Diversity in Ensemble-Based Exploration [7.209197316045156]
データ共有エージェントの多様なアンサンブルの訓練は、個々のアンサンブルメンバーのパフォーマンスを著しく損なう可能性がある。
私たちはこの現象を多様性の呪いと呼んでいる。
多様性の呪いに対処する表現学習の可能性を示す。
論文 参考訳(メタデータ) (2024-05-07T14:14:50Z) - Mitigating Shortcut Learning with Diffusion Counterfactuals and Diverse Ensembles [95.49699178874683]
拡散確率モデル(DPM)を利用したアンサンブル多様化フレームワークDiffDivを提案する。
DPMは、相関した入力特徴を示すサンプルを用いて訓練しても、新しい特徴の組み合わせで画像を生成することができることを示す。
そこで本研究では,DPM誘導の多様化は,教師付き信号の追加を必要とせず,ショートカットキューへの依存を取り除くのに十分であることを示す。
論文 参考訳(メタデータ) (2023-11-23T15:47:33Z) - Diversified Outlier Exposure for Out-of-Distribution Detection via
Informative Extrapolation [110.34982764201689]
Out-of-Distribution(OOD)検出は、現実のアプリケーションに信頼性の高い機械学習モデルをデプロイするために重要である。
近年, 外部曝露によるOOD検出に有意な結果が得られた。
本稿では,補助外乱量に基づく情報外挿による効果的なOOD検出のための新しい枠組み,すなわちDivOE(Diversified Outlier Exposure)を提案する。
論文 参考訳(メタデータ) (2023-10-21T07:16:09Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Improving robustness and calibration in ensembles with diversity
regularization [1.069533806668766]
分布外サンプルを用いた分類タスクのための新しい多様性正規化器を提案する。
多様性の正規化は、キャリブレーションやロバストネス、アウト・オブ・ディストリビューション検出に重大な影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-01-26T12:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。