論文の概要: Warm-starting active-set solvers using graph neural networks
- arxiv url: http://arxiv.org/abs/2511.13174v1
- Date: Mon, 17 Nov 2025 09:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.099463
- Title: Warm-starting active-set solvers using graph neural networks
- Title(参考訳): グラフニューラルネットワークを用いたウォームスタート能動集合解法
- Authors: Ella J. Schmidtobreick, Daniel Arnström, Paul Häusner, Jens Sjölund,
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)を用いた二元能動集合解法DAQPの能動集合の予測手法を提案する。
問題のサイズは様々であり、GNNはコールドスタートに比べてソルバイテレーションの数を一貫して減らしている。
様々な問題サイズを訓練したGNNは、柔軟性とスケーラビリティを実証し、目に見えない次元に効果的に一般化する。
- 参考スコア(独自算出の注目度): 4.309217525488745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quadratic programming (QP) solvers are widely used in real-time control and optimization, but their computational cost often limits applicability in time-critical settings. We propose a learning-to-optimize approach using graph neural networks (GNNs) to predict active sets in the dual active-set solver DAQP. The method exploits the structural properties of QPs by representing them as bipartite graphs and learning to identify the optimal active set for efficiently warm-starting the solver. Across varying problem sizes, the GNN consistently reduces the number of solver iterations compared to cold-starting, while performance is comparable to a multilayer perceptron (MLP) baseline. Furthermore, a GNN trained on varying problem sizes generalizes effectively to unseen dimensions, demonstrating flexibility and scalability. These results highlight the potential of structure-aware learning to accelerate optimization in real-time applications such as model predictive control.
- Abstract(参考訳): 二次プログラミング(QP)ソルバはリアルタイム制御と最適化に広く用いられているが、その計算コストは時間クリティカルな設定での適用性を制限していることが多い。
本稿では,グラフニューラルネットワーク(GNN)を用いた二元能動集合解法DAQPの能動集合の予測手法を提案する。
この手法は、QPの構造的特性を二部グラフとして表現し、解解器を効率的に温めるための最適な能動集合を同定する。
様々な問題のサイズで、GNNはコールドスタートに比べてソルバイテレーションの数を一貫して減らし、性能はマルチレイヤーパーセプトロン(MLP)ベースラインに匹敵する。
さらに、様々な問題サイズを訓練したGNNは、視認できない次元に効果的に一般化し、柔軟性とスケーラビリティを実証する。
これらの結果は、モデル予測制御のようなリアルタイムアプリケーションにおける最適化を高速化する構造認識学習の可能性を強調している。
関連論文リスト
- Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Expressive Power of Graph Neural Networks for (Mixed-Integer) Quadratic Programs [35.70023437238074]
二次計画法 (QP) は非線形計画法において最も広く適用されている分野である。
最近、グラフニューラルネットワーク(GNN)がQPの新しい可能性を公開した。
理論上、GNNがQPタスクに対して何を達成でき、達成できないのかは不明だ。
論文 参考訳(メタデータ) (2024-06-09T23:57:47Z) - Multi-Level GNN Preconditioner for Solving Large Scale Problems [0.0]
グラフニューラルネットワーク(GNN)はメッシュのような非構造化データから学ぶのに最適だが、小さな問題に制限されることが多い。
本稿では,GNNモデルを多レベルドメイン分解フレームワークに統合した新しいプレコンディショナーを提案する。
提案したGNNベースのプレコンディショナーは、Krylov法の効率を高めるために使用され、任意の精度の要求レベルに収束できるハイブリッド・ソルバとなる。
論文 参考訳(メタデータ) (2024-02-13T08:50:14Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Training Integer-Only Deep Recurrent Neural Networks [3.1829446824051195]
精度の高い整数専用リカレントニューラルネットワーク(iRNN)を得るための量子化学習法を提案する。
本手法は, 層正規化, 注意, アクティベーション関数の適応的片方向線形(PWL)近似をサポートする。
提案手法により,RNNベースの言語モデルでエッジデバイス上で実行可能である。
論文 参考訳(メタデータ) (2022-12-22T15:22:36Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Neural Spectrahedra and Semidefinite Lifts: Global Convex Optimization
of Polynomial Activation Neural Networks in Fully Polynomial-Time [31.94590517036704]
2次活性化を持つ2層数値ネットワークの完全凸最適化定式化を考案する。
本研究では,全入力データの複雑度とサンプルサイズが半定常的なニューラル・グローバル最適化であることを示した。
提案手法は, 標準バックプロパゲーション法に比べ, テスト精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-01-07T08:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。