論文の概要: Unrolled Neural Networks for Constrained Optimization
- arxiv url: http://arxiv.org/abs/2601.17274v1
- Date: Sat, 24 Jan 2026 03:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.494598
- Title: Unrolled Neural Networks for Constrained Optimization
- Title(参考訳): 制約付き最適化のためのアンロールニューラルネットワーク
- Authors: Samar Hadou, Alejandro Ribeiro,
- Abstract要約: 我々のフレームワークは、ラグランジアンのサドル点を共同で近似する2つの結合ニューラルネットワークで構成されている。
混合整数二次プログラムと無線ネットワークにおける電力配分に関する枠組みを数値的に評価する。
- 参考スコア(独自算出の注目度): 83.29547301151177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we develop unrolled neural networks to solve constrained optimization problems, offering accelerated, learnable counterparts to dual ascent (DA) algorithms. Our framework, termed constrained dual unrolling (CDU), comprises two coupled neural networks that jointly approximate the saddle point of the Lagrangian. The primal network emulates an iterative optimizer that finds a stationary point of the Lagrangian for a given dual multiplier, sampled from an unknown distribution. The dual network generates trajectories towards the optimal multipliers across its layers while querying the primal network at each layer. Departing from standard unrolling, we induce DA dynamics by imposing primal-descent and dual-ascent constraints through constrained learning. We formulate training the two networks as a nested optimization problem and propose an alternating procedure that updates the primal and dual networks in turn, mitigating uncertainty in the multiplier distribution required for primal network training. We numerically evaluate the framework on mixed-integer quadratic programs (MIQPs) and power allocation in wireless networks. In both cases, our approach yields near-optimal near-feasible solutions and exhibits strong out-of-distribution (OOD) generalization.
- Abstract(参考訳): 本稿では,制約付き最適化問題を解くために,非ループ型ニューラルネットワークを開発した。
我々のフレームワークは、制約付きデュアルアンローリング(CDU)と呼ばれ、ラグランジアンのサドル点を共同で近似する2つの結合ニューラルネットワークから構成される。
原始ネットワークは、未知の分布からサンプリングされた与えられた二乗数に対してラグランジアンの定常点を見つける反復最適化器をエミュレートする。
二重ネットワークは、各層で一次ネットワークを問い合わせながら、各層をまたいだ最適な乗算器に向けて軌道を生成する。
標準アンローリングから離れ、制約付き学習を通して原始的・二重的制約を課すことによりDAダイナミクスを誘導する。
本研究では,2つのネットワークをネスト最適化問題として定式化し,プリマルネットワークと双対ネットワークを交互に更新し,プリマルネットワークのトレーニングに必要な乗算器分布の不確実性を緩和する手法を提案する。
混合整数二次プログラム(MIQP)と無線ネットワークにおける電力配分に関する枠組みを数値的に評価する。
どちらの場合も, ほぼ最適に近い近似解が得られ, 強いアウト・オブ・ディストリビューション(OOD)の一般化を示す。
関連論文リスト
- Unrolled Graph Neural Networks for Constrained Optimization [83.29547301151177]
2つの結合グラフニューラルネットワーク(GNN)における双対昇降アルゴリズムのダイナミクスについて検討する。
予備的ネットワークと二重ネットワークの更新を交互に行う共同学習手法を提案する。
我々の数値実験は、我々のアプローチがほぼ最適に近いほぼ実現可能な解をもたらすことを示す。
論文 参考訳(メタデータ) (2025-09-21T16:55:41Z) - Fast State-Augmented Learning for Wireless Resource Allocation with Dual Variable Regression [83.27791109672927]
本稿では,資源割当ポリシに対する状態拡張グラフニューラルネットワーク(GNN)のパラメトリゼーションが,ユビキタスな二段階的手法の欠点を回避する方法を示す。
ラグランジアンによる国家拡張政策の最大化は、オフライントレーニングフェーズ中に学習される。
収束結果と指数確率は、双対函数(有限値)最適性ギャップの剰余に縛られることを証明する。
論文 参考訳(メタデータ) (2025-06-23T15:20:58Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Universal Neural Optimal Transport [0.0]
UNOT(Universal Neural Optimal Transport、Universal Neural Optimal Transport)は、OT距離を正確に予測できる新しいフレームワークである。
我々のネットワークはSinkhornアルゴリズムの最先端の初期化として使用でき、最大7.4times$の高速化が可能であることを示す。
論文 参考訳(メタデータ) (2022-11-30T21:56:09Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。