論文の概要: The Challenger: When Do New Data Sources Justify Switching Machine Learning Models?
- arxiv url: http://arxiv.org/abs/2512.18390v1
- Date: Sat, 20 Dec 2025 15:03:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.315817
- Title: The Challenger: When Do New Data Sources Justify Switching Machine Learning Models?
- Title(参考訳): The Challenger: 機械学習モデルの変更を正当化する新しいデータソースはいつになるのか?
- Authors: Vassilis Digalakis, Christophe Pérignon, Sébastien Saurin, Flore Sentenac,
- Abstract要約: 組織がトレーニング済みの既存モデルを、新たに利用可能な機能に依存した挑戦者に置き換えるべきかどうかを判断する問題について検討する。
我々は,学習曲線のダイナミクス,データ取得と再学習のコスト,将来的な利益の割引を結びつける統一的な経済・統計的な枠組みを開発する。
- 参考スコア(独自算出の注目度): 2.7998963147546143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of deciding whether, and when an organization should replace a trained incumbent model with a challenger relying on newly available features. We develop a unified economic and statistical framework that links learning-curve dynamics, data-acquisition and retraining costs, and discounting of future gains. First, we characterize the optimal switching time in stylized settings and derive closed-form expressions that quantify how horizon length, learning-curve curvature, and cost differentials shape the optimal decision. Second, we propose three practical algorithms: a one-shot baseline, a greedy sequential method, and a look-ahead sequential method. Using a real-world credit-scoring dataset with gradually arriving alternative data, we show that (i) optimal switching times vary systematically with cost parameters and learning-curve behavior, and (ii) the look-ahead sequential method outperforms other methods and is able to approach in value an oracle with full foresight. Finally, we establish finite-sample guarantees, including conditions under which the sequential look-ahead method achieve sublinear regret relative to that oracle. Our results provide an operational blueprint for economically sound model transitions as new data sources become available.
- Abstract(参考訳): 組織がトレーニング済みの既存モデルを、新たに利用可能な機能に依存した挑戦者に置き換えるべきかどうかを判断する問題について検討する。
我々は,学習曲線のダイナミクス,データ取得と再学習のコスト,将来的な利益の削減を結びつける統一的経済統計フレームワークを開発する。
まず、スタイリングされた設定における最適切替時間を特徴付け、水平線長、学習曲線曲率、コスト差の定量化を行うクローズドフォーム表現を導出する。
次に, 単発ベースライン, グレディシーケンシャルメソッド, ルックアヘッドシーケンシャルメソッドの3つの実用的なアルゴリズムを提案する。
現実の信用スコアデータセットを用いて、徐々に別のデータに到達していることを示す。
(i)最適切替時間は、コストパラメータや学習曲線の振る舞いとともに体系的に変化し、
(ii)ルックアヘッドシーケンシャルメソッドは他のメソッドよりも優れており、フルフォアビジョンでオラクルの値にアプローチすることができる。
最後に、シーケンシャルなルックアヘッド法がそのオラクルに対するサブ線形後悔を実現する条件を含む有限サンプル保証を確立する。
本研究の結果は,新たなデータソースが利用可能になるにつれて,経済的な健全なモデル遷移のための運用上の青写真を提供する。
関連論文リスト
- Data Mixture Optimization: A Multi-fidelity Multi-scale Bayesian Framework [10.317740844867913]
我々は,SlimPajamaデータセットから,さまざまなデータ構成を用いて,472言語モデルによる事前学習実行をベースとしたシミュレータを構築した。
単純な取得関数でさえ、20Mから1Bまでのトレーニングモデル間で、原則化されたトレーニング決定を可能にすることを観察する。
論文 参考訳(メタデータ) (2025-03-26T22:19:47Z) - When Does Visual Prompting Outperform Linear Probing for Vision-Language Models? A Likelihood Perspective [57.05315507519704]
本稿では,視覚的プロンプトと線形探索の利点を比較分析するために,ログ類似率(LLR)アプローチを提案する。
本測定は,最大で100倍の時間短縮が可能であり,予測精度は最大91%に達する。
論文 参考訳(メタデータ) (2024-09-03T12:03:45Z) - Getting More Juice Out of the SFT Data: Reward Learning from Human Demonstration Improves SFT for LLM Alignment [65.15914284008973]
我々は、報酬モデルと政策モデルを同時に構築するために、逆強化学習(IRL)技術を活用することを提案する。
提案アルゴリズムはIRL問題の定常解に収束することを示す。
その結果,アライメントプロセス全体を通じて報酬学習を活用することは有益であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T07:11:05Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Learning to Maximize Mutual Information for Dynamic Feature Selection [13.821253491768168]
本稿では,現在利用可能な情報に基づいてモデルを逐次クエリする動的特徴選択(DFS)問題を考察する。
条件付き相互情報に基づいて,特徴を欲求的に選択する,よりシンプルなアプローチについて検討する。
提案手法は,最適性を訓練した際の欲求を回復し,既存の特徴選択法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-02T08:31:56Z) - Smoothed Online Learning is as Easy as Statistical Learning [77.00766067963195]
この設定では、最初のオラクル効率、非回帰アルゴリズムを提供する。
古典的な設定で関数クラスが学習可能な場合、文脈的包帯に対するオラクル効率のよい非回帰アルゴリズムが存在することを示す。
論文 参考訳(メタデータ) (2022-02-09T19:22:34Z) - A Scalable Inference Method For Large Dynamic Economic Systems [19.757929782329892]
本稿では,時間変化パラメータ自動回帰モデルを組み込む新しい変分ベイズ推論手法を提案する。
我々のモデルは、価格、個々のアクターのトランザクション、トランザクションフローの分析、価格の動きを含む大規模なブロックチェーンデータセットに適用されます。
我々は、機械学習アーキテクチャの助けを借りて、フォワードモデルに非線形性を導入することで、シンプルな状態空間モデリングをさらに改善する。
論文 参考訳(メタデータ) (2021-10-27T10:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。