論文の概要: Cheap Thrills: Effective Amortized Optimization Using Inexpensive Labels
- arxiv url: http://arxiv.org/abs/2603.05495v1
- Date: Thu, 05 Mar 2026 18:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.388361
- Title: Cheap Thrills: Effective Amortized Optimization Using Inexpensive Labels
- Title(参考訳): Cheap Thrills: Inexpensive Labels を用いた効果的なアモータイズ最適化
- Authors: Khai Nguyen, Petros Ellinas, Anvita Bhagavathula, Priya Donti,
- Abstract要約: 我々は,「チープ不完全なラベル」を提案し,事前学習を行い,自己教師あり学習を通じてモデルを洗練し,全体的な性能を改善する。
我々の理論的分析と経験的基準は、ラベル付きデータのみをアトラクションの流域に配置する必要があることを示している。
より高速な収束,精度の向上,高品質な最適化,全オフラインコストの最大59倍の削減を実現した。
- 参考スコア(独自算出の注目度): 20.00525916892172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To scale the solution of optimization and simulation problems, prior work has explored machine-learning surrogates that inexpensively map problem parameters to corresponding solutions. Commonly used approaches, including supervised and self-supervised learning with either soft or hard feasibility enforcement, face inherent challenges such as reliance on expensive, high-quality labels or difficult optimization landscapes. To address their trade-offs, we propose a novel framework that first collects "cheap" imperfect labels, then performs supervised pretraining, and finally refines the model through self-supervised learning to improve overall performance. Our theoretical analysis and merit-based criterion show that labeled data need only place the model within a basin of attraction, confirming that only modest numbers of inexact labels and training epochs are required. We empirically validate our simple three-stage strategy across challenging domains, including nonconvex constrained optimization, power-grid operation, and stiff dynamical systems, and show that it yields faster convergence; improved accuracy, feasibility, and optimality; and up to 59x reductions in total offline cost.
- Abstract(参考訳): 最適化問題とシミュレーション問題の解をスケールするために、従来の研究は、問題のパラメータを対応するソリューションに安価にマッピングする機械学習サロゲートを探索してきた。
ソフトあるいはハード・ファシビリティの実施による教師付きおよび自己教師型学習を含む一般的なアプローチは、高価で高品質なラベルへの依存や、難しい最適化の展望といった固有の課題に直面している。
これらのトレードオフに対処するため,まず不完全なラベルを収集し,教師付き事前学習を行い,自己教師型学習を通じてモデルを改良し,全体的な性能を向上させる新しい枠組みを提案する。
我々の理論的分析とメリットに基づく基準は、ラベル付きデータはアトラクションの流域にのみモデルを置く必要があることを示し、不正確なラベルとトレーニングのエポックしか必要としないことを確認した。
我々は,非凸制約最適化,電力グリッド演算,剛体力学系など,課題領域間の単純な3段階戦略を実証的に検証し,より高速な収束,精度の向上,実現可能性,最適性の向上,および全オフラインコストの最大59倍の削減を示す。
関連論文リスト
- Labels or Preferences? Budget-Constrained Learning with Human Judgments over AI-Generated Outputs [17.028710603629026]
我々は,AIにおいて,基幹ラベルとペアの選好の間で,固定されたアノテーション予算を最適に割り当てる方法について述べる。
本稿では,データ取得戦略を最適に学習する新しいロバストネス手法であるPreference-Calibrated Active Learning (PCAL)を紹介する。
この研究は、現代のAIにおける予算制約学習に対する原則的かつ統計的に効率的なアプローチを提供する。
論文 参考訳(メタデータ) (2026-01-19T23:23:29Z) - Online Inference of Constrained Optimization: Primal-Dual Optimality and Sequential Quadratic Programming [55.848340925419286]
等式制約と不等式制約を持つ2次最適化問題の解に対するオンライン統計的推測について検討した。
これらの問題を解決するための逐次プログラミング(SSQP)手法を開発し、目的の近似と制約の線形近似を逐次実行することでステップ方向を計算する。
本手法は,Hjek と Le Cam の意味での最適原始双対制限行列を用いて局所正規性を示す。
論文 参考訳(メタデータ) (2025-11-27T06:16:17Z) - HardFlow: Hard-Constrained Sampling for Flow-Matching Models via Trajectory Optimization [4.249024052507976]
本稿では,軌道最適化問題としてハードコントラストサンプリングを再構成する新しいフレームワークを提案する。
我々の重要な洞察は、数値的最適制御を利用してサンプリング軌道を操り、終端時刻に制約が正確に満たされるようにすることである。
このアルゴリズムは、制約満足度とサンプル品質の両方において、既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-11-11T16:33:57Z) - AdaptiveLLM: A Framework for Selecting Optimal Cost-Efficient LLM for Code-Generation Based on CoT Length [5.856039862078523]
本稿では,タスクの難易度を自動的に評価することにより,与えられたコーディングタスクに対して最適な大言語モデル(LLM)を動的に選択するフレームワークであるAdaptiveLLMを紹介する。
筆者らのフレームワークはまず,推論モデルから生成したChain-of-Thought長を用いてタスクの難易度を推定し,これらをk平均で3つの難易度にクラスタ化し,難易度を考慮したCodeBERTを組み込む。
我々のフレームワークは、pass@1スコアを7.86%改善し、ベースラインメソッドである ComplexityNet と比較して、リソース消費を88.9%削減します。
論文 参考訳(メタデータ) (2025-06-12T09:43:48Z) - Scalable Chain of Thoughts via Elastic Reasoning [61.75753924952059]
Elastic Reasoningは、スケーラブルな思考の連鎖のための新しいフレームワークである。
推論は、独立して割り当てられた予算で、思考と解決の2つのフェーズに分けられる。
我々のアプローチは、制約のない設定でもより簡潔で効率的な推論をもたらす。
論文 参考訳(メタデータ) (2025-05-08T15:01:06Z) - Self-Steering Optimization: Autonomous Preference Optimization for Large Language Models [79.84205827056907]
本稿では,高品質な嗜好データを自律的に生成するアルゴリズムであるセルフステアリング最適化(SSO$)を提案する。
$SSO$は、ポリシーモデル自体からデータジェネレータを構築するために、特別な最適化目標を採用しています。
評価の結果,$SSO$は人選好アライメントと報酬最適化のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-22T16:04:03Z) - Jump Diffusion-Informed Neural Networks with Transfer Learning for Accurate American Option Pricing under Data Scarcity [1.998862666797032]
本研究は,6つの相互関連モジュールからなる米国オプション価格の包括的枠組みを提案する。
このフレームワークは非線形最適化アルゴリズム、解析モデルと数値モデル、ニューラルネットワークを組み合わせて価格性能を向上させる。
提案したモデルでは、より深い収益源オプションの価格設定において優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-26T17:50:12Z) - Memory-Enhanced Neural Solvers for Routing Problems [8.255381359612885]
本稿では、メモリを活用して推論時のニューラルソルバの探索を改善するアプローチであるMementOを提案する。
本研究は, ツリーサーチと政策段階の微調整よりも, 走行セールスマンとキャパシタント車両ルーティングの問題に有効性を示すものである。
我々は,大規模インスタンス上で全RL自動回帰解法をトレーニングし,MementOのスケーラビリティとデータ効率を検証した。
論文 参考訳(メタデータ) (2024-06-24T08:18:19Z) - OTClean: Data Cleaning for Conditional Independence Violations using
Optimal Transport [51.6416022358349]
sysは、条件付き独立性(CI)制約下でのデータ修復に最適な輸送理論を利用するフレームワークである。
我々はSinkhornの行列スケーリングアルゴリズムにインスパイアされた反復アルゴリズムを開発し、高次元および大規模データを効率的に処理する。
論文 参考訳(メタデータ) (2024-03-04T18:23:55Z) - Training Over-parameterized Models with Non-decomposable Objectives [46.62273918807789]
より一般的なコスト行列を扱うために,ロジット調整という古典的な考え方を拡張した新たなコスト感受性損失を提案する。
私たちの損失は校正され、教師モデルの蒸留ラベルでさらに改善できます。
論文 参考訳(メタデータ) (2021-07-09T19:29:33Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。