論文の概要: A General and Streamlined Differentiable Optimization Framework
- arxiv url: http://arxiv.org/abs/2510.25986v1
- Date: Wed, 29 Oct 2025 21:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.583762
- Title: A General and Streamlined Differentiable Optimization Framework
- Title(参考訳): 汎用的で合理化された微分可能最適化フレームワーク
- Authors: Andrew W. Rosemberg, Joaquim Dias Garcia, François Pacaud, Robert B. Parker, Benoît Legat, Kaarthik Sundar, Russell Bent, Pascal Van Hentenryck,
- Abstract要約: 本稿では,Julia最適化フレームワークのためのDiffOptlインタフェースを提案する。
ファーストクラスのJuMPネイティブAPIでは、ユーザが名前付きパラメータのデリバティブを直接取得することができる。
その結果、ルーチンの区別は、標準のJuMPモデリングプラクティスから逸脱することなく、実験、学習、設計を行うためのトレーニングツールになり得ることが示される。
- 参考スコア(独自算出の注目度): 10.851559133306196
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Differentiating through constrained optimization problems is increasingly central to learning, control, and large-scale decision-making systems, yet practical integration remains challenging due to solver specialization and interface mismatches. This paper presents a general and streamlined framework-an updated DiffOpt.jl-that unifies modeling and differentiation within the Julia optimization stack. The framework computes forward - and reverse-mode solution and objective sensitivities for smooth, potentially nonconvex programs by differentiating the KKT system under standard regularity assumptions. A first-class, JuMP-native parameter-centric API allows users to declare named parameters and obtain derivatives directly with respect to them - even when a parameter appears in multiple constraints and objectives - eliminating brittle bookkeeping from coefficient-level interfaces. We illustrate these capabilities on convex and nonconvex models, including economic dispatch, mean-variance portfolio selection with conic risk constraints, and nonlinear robot inverse kinematics. Two companion studies further demonstrate impact at scale: gradient-based iterative methods for strategic bidding in energy markets and Sobolev-style training of end-to-end optimization proxies using solver-accurate sensitivities. Together, these results demonstrate that differentiable optimization can be deployed as a routine tool for experimentation, learning, calibration, and design-without deviating from standard JuMP modeling practices and while retaining access to a broad ecosystem of solvers.
- Abstract(参考訳): 制約付き最適化問題による微分は、学習、制御、大規模意思決定システムにおいてますます中心的になってきていますが、解答器の特殊化とインターフェースのミスマッチのため、実際的な統合は難しいままです。
本稿では、Julia最適化スタック内のモデリングと差別化を統一する汎用的で合理化されたフレームワークであるDiffOpt.jlについて述べる。
このフレームワークは、標準的な正則性仮定の下でKKTシステムを微分することにより、滑らかで潜在的に非凸なプログラムに対する前方および逆モードの解と客観的感性を計算する。
ファーストクラスのJuMPネイティブなパラメータ中心APIでは、パラメータが複数の制約や目的に現れる場合でも、名前付きパラメータを宣言し、デリバティブを直接取得することができます。
本稿では,円錐型リスク制約付き平均分散ポートフォリオ選択,非線形ロボット逆運動学など,凸・非凸モデルにおけるこれらの機能について述べる。
エネルギー市場における戦略的入札のための勾配に基づく反復的手法と、ソルバ正確な感度を用いたエンドツーエンド最適化プロキシのソボレフスタイルの訓練である。
これらの結果から,実験,学習,校正,設計を伴わない定期的なツールとして,標準的なJuMPモデリングの実践から逸脱し,より広範な問題解決者エコシステムへのアクセスを維持しつつ,差別化可能な最適化を展開できることが示唆された。
関連論文リスト
- Scalable Principal-Agent Contract Design via Gradient-Based Optimization [7.1284366727738275]
本研究では,プライマリエージェント契約設計のための二レベルEmphmax-max最適化フレームワークについて検討する。
この問題は、市場設計からデリゲートされたポートフォリオ管理まで幅広い応用の基盤となっている。
クローズドフォームに依存しない汎用的なアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-24T06:00:02Z) - A Graphical Global Optimization Framework for Parameter Estimation of Statistical Models with Nonconvex Regularization Functions [0.0]
線形ノルムバウンド制約の問題は、ポートフォリオ最適化、機械学習、機能選択など、さまざまなアプリケーションで発生する。
本稿では,これらの問題をグローバルに解決するための新しいグラフベース手法を提案する。
論文 参考訳(メタデータ) (2025-05-06T18:09:54Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Flexible Differentiable Optimization via Model Transformations [1.081463830315253]
目的および/または制約に存在する任意のパラメータに関して、最適化問題の解を通じて区別するJuliaライブラリであるDiffOptを紹介する。
論文 参考訳(メタデータ) (2022-06-10T09:59:13Z) - A Surrogate Objective Framework for Prediction+Optimization with Soft
Constraints [29.962390392493507]
SPO+や直接最適化のような決定に焦点をあてた予測手法が、このギャップを埋めるために提案されている。
本稿では,実世界の線形および半定値負の二次計画問題に対して,解析的に微分可能な主観的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-22T17:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。