論文の概要: Learning context-aware adaptive solvers to accelerate quadratic
programming
- arxiv url: http://arxiv.org/abs/2211.12443v1
- Date: Tue, 22 Nov 2022 17:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:54:16.713886
- Title: Learning context-aware adaptive solvers to accelerate quadratic
programming
- Title(参考訳): 二次プログラミングを高速化する文脈認識型適応解法
- Authors: Haewon Jung, Junyoung Park, Jinkyoo Park
- Abstract要約: CA-ADMMはADMMを加速するために$rho$を適応的に調整する。
本稿では,CA-ADMMがQP問題に対して,異なるサイズとクラスで効果的に一般化できることを示す。
- 参考スコア(独自算出の注目度): 11.172382217477129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convex quadratic programming (QP) is an important sub-field of mathematical
optimization. The alternating direction method of multipliers (ADMM) is a
successful method to solve QP. Even though ADMM shows promising results in
solving various types of QP, its convergence speed is known to be highly
dependent on the step-size parameter $\rho$. Due to the absence of a general
rule for setting $\rho$, it is often tuned manually or heuristically. In this
paper, we propose CA-ADMM (Context-aware Adaptive ADMM)) which learns to
adaptively adjust $\rho$ to accelerate ADMM. CA-ADMM extracts the
spatio-temporal context, which captures the dependency of the primal and dual
variables of QP and their temporal evolution during the ADMM iterations.
CA-ADMM chooses $\rho$ based on the extracted context. Through extensive
numerical experiments, we validated that CA-ADMM effectively generalizes to
unseen QP problems with different sizes and classes (i.e., having different QP
parameter structures). Furthermore, we verified that CA-ADMM could dynamically
adjust $\rho$ considering the stage of the optimization process to accelerate
the convergence speed further.
- Abstract(参考訳): 凸二次計画法(QP)は数学最適化の重要な部分分野である。
乗算器の交互方向法(ADMM)はQPの解法として成功している。
ADMMは様々なQPを解く上で有望な結果を示すが、収束速度はステップサイズパラメータ$\rho$に依存することが知られている。
$\rho$ を設定する一般的なルールがないため、手動またはヒューリスティックに調整されることが多い。
本稿では,ADMMを高速化するために$\rho$を適応的に調整することを学ぶCA-ADMM(Context-aware Adaptive ADMM)を提案する。
CA-ADMMは時空間的文脈を抽出し、QPの原始変数と双対変数の依存性とADMM反復中の時間的進化を捉える。
CA-ADMMは抽出したコンテキストに基づいて$\rho$を選択する。
広範囲にわたる数値実験により,CA-ADMMは,異なる大きさとクラス(QPパラメータ構造が異なる)のQP問題を効果的に一般化することを確認した。
さらに,CA-ADMMは最適化プロセスの段階を考慮して$\rho$を動的に調整し,収束速度をさらに加速できることを確認した。
関連論文リスト
- Parameter-Adaptive Approximate MPC: Tuning Neural-Network Controllers without Retraining [50.00291020618743]
この研究は、大規模なデータセットを再計算し、再トレーニングすることなくオンラインチューニングが可能な、新しいパラメータ適応型AMPCアーキテクチャを導入している。
資源制約の厳しいマイクロコントローラ(MCU)を用いた2種類の実カートポールシステムの揺らぎを制御し,パラメータ適応型AMPCの有効性を示す。
これらの貢献は、現実世界のシステムにおけるAMPCの実践的応用に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-04-08T20:02:19Z) - Optimizing ADMM and Over-Relaxed ADMM Parameters for Linear Quadratic
Problems [32.04687753889809]
Alternating Direction Method of Multipliers (ADMM) は、幅広い機械学習アプリケーションで注目を集めている。
本稿では, ペナルティパラメータの値を最適化するための一般的な手法を提案し, 続いて, 最適緩和パラメータを計算するための新しいクローズドフォーム式を提案する。
次に、ランダムなインスタンス化と多様なイメージングアプリケーションを用いてパラメータ選択法を実験的に検証する。
論文 参考訳(メタデータ) (2024-01-01T04:01:40Z) - Moreau Envelope ADMM for Decentralized Weakly Convex Optimization [55.2289666758254]
本稿では,分散最適化のための乗算器の交互方向法(ADMM)の近位変種を提案する。
数値実験の結果,本手法は広く用いられている手法よりも高速かつ堅牢であることが示された。
論文 参考訳(メタデータ) (2023-08-31T14:16:30Z) - Learning Regionally Decentralized AC Optimal Power Flows with ADMM [16.843799157160063]
本稿では,AC-OPFを解くためのADMMの収束を高速化する上で,機械学習がいかに役立つかを検討する。
ML-ADMMと呼ばれる新しい分散機械学習手法を提案し、各エージェントはディープラーニングを使用して結合ブランチのコンセンサスパラメータを学習する。
論文 参考訳(メタデータ) (2022-05-08T05:30:35Z) - A Framework of Inertial Alternating Direction Method of Multipliers for
Non-Convex Non-Smooth Optimization [17.553531291690025]
非平滑なマルチブロック複合問題のクラスを解くために,iADMM(iADMM)と呼ばれるアルゴリズムフレームワークを提案する。
本フレームワークでは,従来のADMMスキームの収束解析を統一するために,変数の各ブロックを更新するために,ジェネラル・メイジャー・サロゲート化(MM)原理を用いる。
論文 参考訳(メタデータ) (2021-02-10T13:55:28Z) - Meta-Learning with Adaptive Hyperparameters [55.182841228303225]
我々は、MAMLフレームワークの補完的要素、インナーループ最適化(あるいは高速適応)に焦点を当てる。
高速適応プロセスを大幅に向上させる新しい重み更新ルールを提案する。
論文 参考訳(メタデータ) (2020-10-31T08:05:34Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Communication Efficient Distributed Learning with Censored, Quantized,
and Generalized Group ADMM [52.12831959365598]
本稿では,相互接続作業者のネットワーク上で定義されたコンセンサス最適化問題を解決するための,コミュニケーション効率のよい分散機械学習フレームワークを提案する。
提案アルゴリズムであるCensored and Quantized Generalized GADMMは、GADMM(Group Alternating Direction Method of Multipliers)の労働者グループ化と分散学習のアイデアを活用する。
CQ-GGADMMは通信ラウンド数で高い通信効率を示し、精度と収束速度を損なうことなくエネルギー消費を伝達する。
論文 参考訳(メタデータ) (2020-09-14T14:18:19Z) - Alternating Direction Method of Multipliers for Quantization [15.62692130672419]
量子化のための乗算器の交互方向法(texttADMM-Q$)アルゴリズムの性能について検討する。
不正確な更新ルールを処理できる$texttADMM-Q$のいくつかのバリエーションを開発しています。
提案手法の有効性を実証的に評価した。
論文 参考訳(メタデータ) (2020-09-08T01:58:02Z) - Faster Stochastic Alternating Direction Method of Multipliers for
Nonconvex Optimization [110.52708815647613]
本稿では、SPADMMと呼ばれる新しい経路を用いて、非積分最適化のための乗算器の高速な交互方向(ADMM)を提案する。
我々は,SPADMMが1次微分オラクル推定器 (IFO) を達成し,IFOの記録を求める。
我々は,オンラインSPIDER-ADMMがIFOFO(epsilon)を$mathcalO(n1)$の係数で持つことを示した。
論文 参考訳(メタデータ) (2020-08-04T02:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。