論文の概要: CASHomon Sets: Efficient Rashomon Sets Across Multiple Model Classes and their Hyperparameters
- arxiv url: http://arxiv.org/abs/2603.15321v1
- Date: Mon, 16 Mar 2026 14:12:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.422375
- Title: CASHomon Sets: Efficient Rashomon Sets Across Multiple Model Classes and their Hyperparameters
- Title(参考訳): CASHomon セット:複数のモデルクラスとハイパーパラメータをまたいだ効率的な羅生門セット
- Authors: Fiona Katharina Ewald, Martin Binder, Matthias Feurer, Bernd Bischl, Giuseppe Casalicchio,
- Abstract要約: 羅生門集合は1つのモデルクラス内のモデル集合であり、同じモデルクラスの参照モデルとほぼ同等に機能する。
暗黙の閾値を持つレベルセット推定のためのモデルベース能動学習アルゴリズムであるTruVaRImpを提案する。
- 参考スコア(独自算出の注目度): 14.441777442115708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rashomon sets are model sets within one model class that perform nearly as well as a reference model from the same model class. They reveal the existence of alternative well-performing models, which may support different interpretations. This enables selecting models that match domain knowledge, hidden constraints, or user preferences. However, efficient construction methods currently exist for only a few model classes. Applied machine learning usually searches many model classes, and the best class is unknown beforehand. We therefore study Rashomon sets in the combined algorithm selection and hyperparameter optimization (CASH) setting and call them CASHomon sets. We propose TruVaRImp, a model-based active learning algorithm for level set estimation with an implicit threshold, and provide convergence guarantees. On synthetic and real-world datasets, TruVaRImp reliably identifies CASHomon sets members and matches or outperforms naive sampling, Bayesian optimization, classical and implicit level set estimation methods, and other baselines. Our analyses of predictive multiplicity and feature-importance variability across model classes question the common practice of interpreting data through a single model class.
- Abstract(参考訳): 羅生門集合は1つのモデルクラス内のモデル集合であり、同じモデルクラスの参照モデルとほぼ同等に機能する。
彼らは、異なる解釈をサポートするかもしれない別の優れたモデルの存在を明らかにしている。
これにより、ドメインの知識、隠された制約、あるいはユーザの好みにマッチするモデルを選択することができる。
しかし、現在ではいくつかのモデルクラスにしか効率的な構成方法が存在しない。
応用機械学習は通常多くのモデルクラスを検索し、最良のクラスは事前に不明である。
そこで我々は,アルゴリズム選択とハイパーパラメータ最適化(CASH)を併用したRashomon集合について検討し,それらをCASHomon集合と呼ぶ。
暗黙の閾値を持つレベルセット推定のためのモデルに基づく能動学習アルゴリズムであるTruVaRImpを提案し,収束保証を提供する。
合成および実世界のデータセットでは、TruVaRImpはCASHomonセットのメンバーとマッチを確実に識別し、単純サンプリング、ベイズ最適化、古典的および暗黙的なレベルセット推定方法、その他のベースラインを上書きする。
モデルクラス間での予測的多重度と特徴重要変数の分析は、単一のモデルクラスを通してデータを解釈する一般的な実践に疑問を呈する。
関連論文リスト
- Model Class Selection [2.377712112950261]
モデルクラス選択(MCS)の考え方を紹介する。
MCSでは、複数のモデルコレクションが評価され、少なくとも1つの最適なモデルを含む全てのコレクションが識別のために検索される。
直接的な結果として、特定のデータセットに対して、より単純で解釈可能な統計モデルのクラスが、より複雑なブラックボックス機械学習モデルと同等に実行できるかどうかを調査することができる。
論文 参考訳(メタデータ) (2025-11-14T14:43:26Z) - Model Assembly Learning with Heterogeneous Layer Weight Merging [57.8462476398611]
モデル統合のための新しいパラダイムであるモデルアセンブリ学習(MAL)を紹介する。
MALは、様々なモデルのパラメータをオープンエンドモデル動物園に統合し、ベースモデルの能力を高める。
論文 参考訳(メタデータ) (2025-03-27T16:21:53Z) - Unique Rashomon Sets for Robust Active Learning [0.0]
Unique Rashomon Ensembled Active Learning (UNREAL)を紹介する。
UNREALは、ほぼ最適なモデルの集合である羅生門集合からモデルを選択的にアンサンブルする。
我々はUNREALが従来のアクティブラーニング手法よりも高速な理論収束率を実現することを示す。
論文 参考訳(メタデータ) (2025-03-09T20:50:34Z) - Exploring and Interacting with the Set of Good Sparse Generalized
Additive Models [26.64299550434767]
固定支持集合に対する楕円体を持つスパース・一般化加法モデルのラショーモン集合を近似するアルゴリズムを提案する。
近似された羅生門集合は、(1)モデルクラスにおける変数の重要性の研究、(2)ユーザ指定制約下でのモデル発見(単調性、直接編集)、(3)形状関数の急激な変化の調査など、実用上の課題を解決する基盤となる。
論文 参考訳(メタデータ) (2023-03-28T15:25:46Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。