論文の概要: Budget Allocation for Unknown Value Functions in a Lipschitz Space
- arxiv url: http://arxiv.org/abs/2510.10605v1
- Date: Sun, 12 Oct 2025 13:39:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.028307
- Title: Budget Allocation for Unknown Value Functions in a Lipschitz Space
- Title(参考訳): リプシッツ空間における未知値関数の予算配分
- Authors: MohammadHossein Bateni, Hossein Esfandiari, Samira HosseinGhorban, Alireza Mirrokni, Radin Shahdaei,
- Abstract要約: 我々は、中間モデルの空間を探索するために、最適に有界な予算を割り当てることの課題に対処する。
我々はこれを、リプシッツ空間内の未知値関数に対する一般的な予算割当問題として定式化する。
- 参考スコア(独自算出の注目度): 17.163322307238868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building learning models frequently requires evaluating numerous intermediate models. Examples include models considered during feature selection, model structure search, and parameter tunings. The evaluation of an intermediate model influences subsequent model exploration decisions. Although prior knowledge can provide initial quality estimates, true performance is only revealed after evaluation. In this work, we address the challenge of optimally allocating a bounded budget to explore the space of intermediate models. We formalize this as a general budget allocation problem over unknown-value functions within a Lipschitz space.
- Abstract(参考訳): 学習モデルを構築するには、多くの中間モデルを評価する必要がある。
例えば、特徴選択時に考慮されたモデル、モデル構造探索、パラメータチューニングなどがある。
中間モデルの評価は、その後のモデル探索決定に影響を与える。
事前知識は初期品質評価を提供することができるが、真の性能は評価後にのみ明らかにされる。
本研究では,中間モデルの空間を探索するために,境界予算を最適に割り当てることの課題に対処する。
我々はこれを、リプシッツ空間内の未知値関数に対する一般的な予算割当問題として定式化する。
関連論文リスト
- Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Modeling Choice via Self-Attention [8.394221523847325]
注意に基づく選択モデルはHalo Multinomial Logit(Halo-MNL)モデルの低最適一般化であることを示す。
また、実データから選択を推定するための最初の現実的な尺度を確立し、既存のモデルの評価を行う。
論文 参考訳(メタデータ) (2023-11-11T11:13:07Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Sampling Strategy for Fine-Tuning Segmentation Models to Crisis Area
under Scarcity of Data [0.76146285961466]
本研究では,推定モデルとサンプル特性に基づいて,微調整中のデータ収集をガイドする手法を提案する。
我々は,ビルディング検出のリモートセンシングアプリケーションにおいて,セマンティックセグメンテーション(U-Net)の深層学習モデルに適用した。
論文 参考訳(メタデータ) (2022-02-09T23:16:58Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。