論文の概要: An Efficient Unsupervised Framework for Convex Quadratic Programs via Deep Unrolling
- arxiv url: http://arxiv.org/abs/2412.01051v1
- Date: Mon, 02 Dec 2024 02:22:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:41:39.152699
- Title: An Efficient Unsupervised Framework for Convex Quadratic Programs via Deep Unrolling
- Title(参考訳): 深部アンロールによる凸二次プログラムの効率的な教師なしフレームワーク
- Authors: Linxin Yang, Bingheng Li, Tian Ding, Jianghua Wu, Akang Wang, Yuyi Wang, Jiliang Tang, Ruoyu Sun, Xiaodong Luo,
- Abstract要約: 凸擬似プログラム(QP)に特化したPDHGアルゴリズム「PDQP」の展開に着目する。
最適QPソリューションを学習するためのニューラルネットワークモデル"PDQP-net"を提案する。
この方法で訓練されたPDQP-netは最適QP解を効果的に近似できることを示す。
- 参考スコア(独自算出の注目度): 33.4994203652726
- License:
- Abstract: Quadratic programs (QPs) arise in various domains such as machine learning, finance, and control. Recently, learning-enhanced primal-dual hybrid gradient (PDHG) methods have shown great potential in addressing large-scale linear programs; however, this approach has not been extended to QPs. In this work, we focus on unrolling "PDQP", a PDHG algorithm specialized for convex QPs. Specifically, we propose a neural network model called "PDQP-net" to learn optimal QP solutions. Theoretically, we demonstrate that a PDQP-net of polynomial size can align with the PDQP algorithm, returning optimal primal-dual solution pairs. We propose an unsupervised method that incorporates KKT conditions into the loss function. Unlike the standard learning-to-optimize framework that requires optimization solutions generated by solvers, our unsupervised method adjusts the network weights directly from the evaluation of the primal-dual gap. This method has two benefits over supervised learning: first, it helps generate better primal-dual gap since the primal-dual gap is in the objective function; second, it does not require solvers. We show that PDQP-net trained in this unsupervised manner can effectively approximate optimal QP solutions. Extensive numerical experiments confirm our findings, indicating that using PDQP-net predictions to warm-start PDQP can achieve up to 45% acceleration on QP instances. Moreover, it achieves 14% to 31% acceleration on out-of-distribution instances.
- Abstract(参考訳): 二次プログラム(QP)は、機械学習、ファイナンス、制御などの様々な領域で発生する。
近年,大規模線形プログラムに対処する学習型原始双対ハイブリッド勾配法(PDHG)が大きな可能性を示しているが,この手法はQPに拡張されていない。
本研究では、凸QPに特化したPDHGアルゴリズム「PDQP」の展開に焦点をあてる。
具体的には、最適なQPソリューションを学習するための「PDQP-net」と呼ばれるニューラルネットワークモデルを提案する。
理論的には、多項式サイズのPDQP-netがPDQPアルゴリズムと整合し、最適原始双対解対を返すことを実証する。
損失関数にKKT条件を組み込んだ教師なし手法を提案する。
問題解決者によって生成される最適化ソリューションを必要とする標準的な学習・最適化フレームワークとは異なり,本手法は主対差評価から直接ネットワーク重みを調整する。
この方法は教師あり学習よりも2つの利点がある: 第一に、主対対ギャップが目的関数にあるため、より優れた主対ギャップを生成するのに役立つ;第二に、問題解決者を必要としない。
この方法で訓練されたPDQP-netは最適QP解を効果的に近似できることを示す。
PDQPを温めるためにPDQP-net予測を用いることで,QPインスタンス上で最大45%の加速が達成できることを示す。
さらに、アウト・オブ・ディストリビューション・インスタンスで14%から31%の加速を達成する。
関連論文リスト
- Differentiation Through Black-Box Quadratic Programming Solvers [16.543673072027136]
我々は,任意の2次プログラミング(QP)ソルバに対して,プラグアンドプレイの微分を可能にするモジュール型フレームワークであるdQPを紹介する。
我々の解は、QP最適化におけるアクティブ制約セットの知識が明示的な微分を可能にするというコア理論的知見に基づいている。
我々の実装は公開され、15以上の最先端QP解決器をサポートする既存のフレームワークとインターフェースします。
論文 参考訳(メタデータ) (2024-10-08T20:01:39Z) - NeuralQP: A General Hypergraph-based Optimization Framework for Large-scale QCQPs [8.503330120957052]
本稿では,大規模二次制約付き二次プログラム(QCQP)のための汎用ハイパーグラフベースフレームワークであるNeuralQPを紹介する。
ハイパーグラフ表現を用いたUniEGNNは2次プログラミングのための内部点法(IPM)と等価であることを示す。
QPLIBによる2つのベンチマーク問題と大規模な実世界のインスタンスの実験は、NeuralQPが最先端の解法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-28T10:42:47Z) - Expressive Power of Graph Neural Networks for (Mixed-Integer) Quadratic Programs [40.99368410911088]
二次計画法 (QP) は非線形計画法において最も広く適用されている分野である。
QPタスクにグラフニューラルネットワーク(GNN)を適用する最近の研究は、GNNが最適化インスタンスの重要な特徴を捉えることができることを示している。
本稿では,2次プログラムの重要な特性を確実に表現できるメッセージパスGNNの存在を実証する。
論文 参考訳(メタデータ) (2024-06-09T23:57:47Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Rethinking Model Selection and Decoding for Keyphrase Generation with
Pre-trained Sequence-to-Sequence Models [76.52997424694767]
キーフレーズ生成(英: Keyphrase Generation, KPG)は、NLPにおける長年の課題である。
Seq2seq 事前訓練言語モデル (PLM) は KPG に転換期を迎え、有望な性能改善をもたらした。
本稿では, PLM に基づく KPG におけるモデル選択と復号化戦略の影響について, 系統解析を行った。
論文 参考訳(メタデータ) (2023-10-10T07:34:45Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z) - Bridging the gap between QP-based and MPC-based RL [1.90365714903665]
擬似プログラム(QP)の形式を採り、最適化問題を用いてポリシーと値関数を近似する。
汎用的非構造化QPは学習に高い柔軟性を提供する一方、MPCスキームの構造を持つQPは、その結果のポリシーの説明可能性を促進する。
本稿では,提案手法の動作と結果の構造をポイントマスタスクを用いて記述する。
論文 参考訳(メタデータ) (2022-05-18T10:41:18Z) - Accelerating Quadratic Optimization with Reinforcement Learning [39.64039435793601]
強化学習は、収束を加速するためにパラメータをチューニングするためのポリシーを学ぶことができるかを示す。
我々のポリシーであるRLQPは最先端のQPソルバを最大3倍に上回ります。
RLQPは、異なるアプリケーションから異なる次元と構造を持つ以前に見られなかった問題に驚くほどよく一般化する。
論文 参考訳(メタデータ) (2021-07-22T17:59:10Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。