論文の概要: Unique Rashomon Sets for Robust Active Learning
- arxiv url: http://arxiv.org/abs/2503.06770v1
- Date: Sun, 09 Mar 2025 20:50:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:09.129819
- Title: Unique Rashomon Sets for Robust Active Learning
- Title(参考訳): ロバストなアクティブラーニングのためのユニークな羅生門セット
- Authors: Simon Nugyen, Kentaro Hoffman, Tyler McCormick,
- Abstract要約: Unique Rashomon Ensembled Active Learning (UNREAL)を紹介する。
UNREALは、ほぼ最適なモデルの集合である羅生門集合からモデルを選択的にアンサンブルする。
我々はUNREALが従来のアクティブラーニング手法よりも高速な理論収束率を実現することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Collecting labeled data for machine learning models is often expensive and time-consuming. Active learning addresses this challenge by selectively labeling the most informative observations, but when initial labeled data is limited, it becomes difficult to distinguish genuinely informative points from those appearing uncertain primarily due to noise. Ensemble methods like random forests are a powerful approach to quantifying this uncertainty but do so by aggregating all models indiscriminately. This includes poor performing models and redundant models, a problem that worsens in the presence of noisy data. We introduce UNique Rashomon Ensembled Active Learning (UNREAL), which selectively ensembles only distinct models from the Rashomon set, which is the set of nearly optimal models. Restricting ensemble membership to high-performing models with different explanations helps distinguish genuine uncertainty from noise-induced variation. We show that UNREAL achieves faster theoretical convergence rates than traditional active learning approaches and demonstrates empirical improvements of up to 20% in predictive accuracy across five benchmark datasets, while simultaneously enhancing model interpretability.
- Abstract(参考訳): 機械学習モデルのためにラベル付きデータを収集することは、しばしば高価で時間を要する。
アクティブラーニングは、最も情報に富む観測点を選択的にラベル付けすることでこの問題に対処するが、初期ラベル付きデータが限られている場合には、ノイズによって主に不確実と思われる点と真に情報に富む点を区別することが困難になる。
ランダム・フォレストのようなアンサンブル・メソッドは、この不確実性を定量化する強力なアプローチであるが、全てのモデルを無差別に集約することで実現している。
これには、パフォーマンスの悪いモデルと冗長なモデルが含まれます。
ほぼ最適なモデルの集合であるラショウモン集合と異なるモデルのみを選択的にアンサンブルするUNREAL(Unique Rashomon Ensembled Active Learning)を導入する。
アンサンブルのメンバーシップを異なる説明を持つ高性能モデルに制限することは、ノイズによる変動と真に不確かさを区別するのに役立つ。
UNREALは従来のアクティブな学習手法よりも高速な理論的収束率を実現し、5つのベンチマークデータセットで最大20%の予測精度を実証的に向上し、同時にモデルの解釈可能性を向上させる。
関連論文リスト
- Dynamic Post-Hoc Neural Ensemblers [55.15643209328513]
本研究では,ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ベースモデル予測をランダムにドロップすることでモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性を低くし、オーバーフィッティングを減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - A Path to Simpler Models Starts With Noise [17.36067410506525]
羅生門集合は、与えられたデータセット上でほぼ等しく機能するモデルの集合である。
オープンな疑問は、なぜラショモン比が大きくなるのかである。
よりノイズの多いデータセットは、実践者がモデルをトレーニングする方法を通じて、より大きなRashomon比につながることを示す。
論文 参考訳(メタデータ) (2023-10-30T16:52:57Z) - Exploring and Interacting with the Set of Good Sparse Generalized
Additive Models [26.64299550434767]
固定支持集合に対する楕円体を持つスパース・一般化加法モデルのラショーモン集合を近似するアルゴリズムを提案する。
近似された羅生門集合は、(1)モデルクラスにおける変数の重要性の研究、(2)ユーザ指定制約下でのモデル発見(単調性、直接編集)、(3)形状関数の急激な変化の調査など、実用上の課題を解決する基盤となる。
論文 参考訳(メタデータ) (2023-03-28T15:25:46Z) - Simplicity Bias Leads to Amplified Performance Disparities [8.60453031364566]
SGDで訓練されたモデルは、単純さに偏りがあることを示し、多数派の学習を優先させる。
モデルは、単純なデータセットのクラスやグループを優先順位付けし、複雑なものを見つけることを犠牲にすることができる。
論文 参考訳(メタデータ) (2022-12-13T15:24:41Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。