論文の概要: Unrolled Graph Neural Networks for Constrained Optimization
- arxiv url: http://arxiv.org/abs/2509.17156v1
- Date: Sun, 21 Sep 2025 16:55:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.138679
- Title: Unrolled Graph Neural Networks for Constrained Optimization
- Title(参考訳): 制約付き最適化のためのUnrolled Graph Neural Networks
- Authors: Samar Hadou, Alejandro Ribeiro,
- Abstract要約: 2つの結合グラフニューラルネットワーク(GNN)における双対昇降アルゴリズムのダイナミクスについて検討する。
予備的ネットワークと二重ネットワークの更新を交互に行う共同学習手法を提案する。
我々の数値実験は、我々のアプローチがほぼ最適に近いほぼ実現可能な解をもたらすことを示す。
- 参考スコア(独自算出の注目度): 83.29547301151177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we unroll the dynamics of the dual ascent (DA) algorithm in two coupled graph neural networks (GNNs) to solve constrained optimization problems. The two networks interact with each other at the layer level to find a saddle point of the Lagrangian. The primal GNN finds a stationary point for a given dual multiplier, while the dual network iteratively refines its estimates to reach an optimal solution. We force the primal and dual networks to mirror the dynamics of the DA algorithm by imposing descent and ascent constraints. We propose a joint training scheme that alternates between updating the primal and dual networks. Our numerical experiments demonstrate that our approach yields near-optimal near-feasible solutions and generalizes well to out-of-distribution (OOD) problems.
- Abstract(参考訳): 本稿では,2つの結合グラフニューラルネットワーク(GNN)において,DAアルゴリズムのダイナミックスをアンロールし,制約付き最適化問題を解く。
2つのネットワークは層レベルで相互に相互作用し、ラグランジアンのサドル点を見つける。
原始的なGNNは与えられた双対乗算器の定常点を見つけ、一方、双対ネットワークは推定値を反復的に洗練して最適解に到達する。
我々は、降下制約と昇降制約を課すことで、DAアルゴリズムのダイナミクスを反映させ、原始ネットワークと双対ネットワークを強制する。
予備的ネットワークと二重ネットワークの更新を交互に行う共同学習手法を提案する。
数値実験により,本手法は最適に近い近似解を導出し,アウト・オブ・ディストリビューション(OOD)問題によく対応できることを示した。
関連論文リスト
- Fast State-Augmented Learning for Wireless Resource Allocation with Dual Variable Regression [83.27791109672927]
本稿では,資源割当ポリシに対する状態拡張グラフニューラルネットワーク(GNN)のパラメトリゼーションが,ユビキタスな二段階的手法の欠点を回避する方法を示す。
ラグランジアンによる国家拡張政策の最大化は、オフライントレーニングフェーズ中に学習される。
収束結果と指数確率は、双対函数(有限値)最適性ギャップの剰余に縛られることを証明する。
論文 参考訳(メタデータ) (2025-06-23T15:20:58Z) - Exploring the loss landscape of regularized neural networks via convex duality [42.48510370193192]
本稿では,正規化ニューラルネットワークのロスランドスケープのいくつかの側面について論じる。
まず、その双対を用いて凸問題の解集合を特徴づけ、さらに全ての定常点を特徴づける。
ソリューションセットの特徴付けと接続結果は、異なるアーキテクチャに拡張可能であることを示す。
論文 参考訳(メタデータ) (2024-11-12T11:41:38Z) - Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [4.554284689395686]
暗黙的勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)アルゴリズムより優れている。
IGDは線形収束速度で大域的最適解に収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。