論文の概要: Model Class Selection
- arxiv url: http://arxiv.org/abs/2511.11355v1
- Date: Fri, 14 Nov 2025 14:43:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.654905
- Title: Model Class Selection
- Title(参考訳): モデルクラス選択
- Authors: Ryan Cecil, Lucas Mentch,
- Abstract要約: モデルクラス選択(MCS)の考え方を紹介する。
MCSでは、複数のモデルコレクションが評価され、少なくとも1つの最適なモデルを含む全てのコレクションが識別のために検索される。
直接的な結果として、特定のデータセットに対して、より単純で解釈可能な統計モデルのクラスが、より複雑なブラックボックス機械学習モデルと同等に実行できるかどうかを調査することができる。
- 参考スコア(独自算出の注目度): 2.377712112950261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical model selection seeks to find a single model within a particular class that optimizes some pre-specified criteria, such as maximizing a likelihood or minimizing a risk. More recently, there has been an increased interest in model set selection (MSS), where the aim is to identify a (confidence) set of near-optimal models. Here, we generalize the MSS framework further by introducing the idea of model class selection (MCS). In MCS, multiple model collections are evaluated, and all collections that contain at least one optimal model are sought for identification. Under mild conditions, data splitting based approaches are shown to provide general solutions for MCS. As a direct consequence, for particular datasets we are able to investigate formally whether classes of simpler and more interpretable statistical models are able to perform on par with more complex black-box machine learning models. A variety of simulated and real-data experiments are provided.
- Abstract(参考訳): 古典的モデル選択は、可能性の最大化やリスクの最小化など、特定のクラス内で特定の特定の基準を最適化する単一のモデルを見つけようとする。
最近では、モデル集合選択(MSS)への関心が高まり、ほぼ最適モデルの(自信)集合を特定することが目的となっている。
本稿では,モデルクラス選択(MCS)の概念を導入することで,MSSフレームワークをさらに一般化する。
MCSでは、複数のモデルコレクションが評価され、少なくとも1つの最適なモデルを含む全てのコレクションが識別のために検索される。
温和な条件下では、データ分割に基づくアプローチがMCSの一般的な解決策を提供する。
直接的な結果として、特定のデータセットに対して、より単純で解釈可能な統計モデルのクラスが、より複雑なブラックボックス機械学習モデルと同等に実行可能であるかどうかを正式に調査することができる。
様々なシミュレーションおよび実データ実験が提供されている。
関連論文リスト
- Generalized Top-k Mallows Model for Ranked Choices [7.389630498367403]
本稿では,トップkのMallowsモデルに適した新しいサンプリングスキームと,選択確率を計算するための効率的なアルゴリズムを提案する。
また,観測された選択データからモデルパラメータを推定する能動的学習アルゴリズムを提案する。
これらの貢献は、重要な意思決定シナリオの分析と予測のための新しいツールを提供する。
論文 参考訳(メタデータ) (2025-10-24T21:49:21Z) - Stabilizing black-box model selection with the inflated argmax [8.52745154080651]
理論的安定性を保証するモデル選択を安定化する新しい手法を提案する。
提案手法では,データに適合するモデルの小さなコレクションを選択し,高い確率で任意のトレーニングポイントを除去すると,元のコレクションと重なる選択されたモデルのコレクションが生成される。
論文 参考訳(メタデータ) (2024-10-23T20:39:07Z) - Pareto Merging: Multi-Objective Optimization for Preference-Aware Model Merging [11.186194228460273]
本稿では,各ベースモデルのタスク上でのマージモデルの性能を目的として扱う,嗜好意識のモデルマージ問題を提案する。
提案したモデルマージにより,多様なトレードオフモデルが生成され,最先端のマージベースラインと比較して高いテスト精度が得られることを示す。
論文 参考訳(メタデータ) (2024-08-22T03:41:14Z) - Towards Fundamentally Scalable Model Selection: Asymptotically Fast Update and Selection [40.85209520973634]
理想的なモデル選択スキームは、候補モデルの大きなプール上で2つの操作を効率的にサポートすべきである。
モデル選択に対する従来の解決策は、これらの2つの操作のうちの少なくとも1つに対して高い計算複雑性を必要とする。
モデル埋め込みを実証的に実現したStandardized Embedderを提案する。
論文 参考訳(メタデータ) (2024-06-11T17:57:49Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - fETSmcs: Feature-based ETS model component selection [8.99236558175168]
シミュレーションデータに基づく分類器の訓練によるETSモデル選択の効率的な手法を提案し, 与えられた時系列に対する適切なモデル成分の予測を行う。
提案手法は,広く使用されている予測競合データセットM4に対して,点予測と予測間隔の両面から評価する。
論文 参考訳(メタデータ) (2022-06-26T13:52:43Z) - A linearized framework and a new benchmark for model selection for
fine-tuning [112.20527122513668]
異なるドメインで事前訓練されたモデルの集合からの微調整は、低データ体制におけるテストの精度を向上させる技術として現れている。
モデル選択のための2つの新しいベースライン - Label-Gradient と Label-Feature correlation を導入する。
我々のベンチマークでは、微調整されたイメージネットモデルと比較して、モデル動物園での精度向上が強調されている。
論文 参考訳(メタデータ) (2021-01-29T21:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。