論文の概要: Binarizing Physics-Inspired GNNs for Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2507.13703v2
- Date: Fri, 01 Aug 2025 14:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.488178
- Title: Binarizing Physics-Inspired GNNs for Combinatorial Optimization
- Title(参考訳): 組合せ最適化のための物理インスパイアされたGNNのバイナリ化
- Authors: Martin Krutský, Gustav Šír, Vyacheslav Kungurtsev, Georgios Korpas,
- Abstract要約: PI-GNNの性能は問題グラフの密度の増大とともに低下することを示す。
本稿では,ファジィ論理とバイナライズニューラルネットワークの洞察を基盤として,PI-GNNにおけるナイーブ戦略の原則的代替案を提案する。
提案手法のポートフォリオがPI-GNNの性能を大幅に向上することを示す実験を行った。
- 参考スコア(独自算出の注目度): 2.5782973781085383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-inspired graph neural networks (PI-GNNs) have been utilized as an efficient unsupervised framework for relaxing combinatorial optimization problems encoded through a specific graph structure and loss, reflecting dependencies between the problem's variables. While the framework has yielded promising results in various combinatorial problems, we show that the performance of PI-GNNs systematically plummets with an increasing density of the combinatorial problem graphs. Our analysis reveals an interesting phase transition in the PI-GNNs' training dynamics, associated with degenerate solutions for the denser problems, highlighting a discrepancy between the relaxed, real-valued model outputs and the binary-valued problem solutions. To address the discrepancy, we propose principled alternatives to the naive strategy used in PI-GNNs by building on insights from fuzzy logic and binarized neural networks. Our experiments demonstrate that the portfolio of proposed methods significantly improves the performance of PI-GNNs in increasingly dense settings.
- Abstract(参考訳): 物理に着想を得たグラフニューラルネットワーク(PI-GNN)は、特定のグラフ構造と損失を通じて符号化された組合せ最適化問題を緩和し、問題の変数間の依存関係を反映する効率的な教師なしのフレームワークとして利用されている。
このフレームワークは様々な組合せ問題において有望な結果をもたらしたが、PI-GNNの性能は組合せ問題グラフの密度の増大とともに体系的に低下することを示した。
解析の結果, PI-GNNsの学習力学において, より密度の高い問題に対する退化解に関連する興味深い相転移が明らかとなり, 緩和された実数値モデル出力とバイナリ値問題解との相違が浮き彫りになった。
そこで本研究では,ファジィ論理とバイナライズニューラルネットワークの知見に基づいて,PI-GNNにおけるナイーブ戦略の原則的代替案を提案する。
提案手法のポートフォリオがPI-GNNの性能を大幅に向上することを示す実験を行った。
関連論文リスト
- Learn Singularly Perturbed Solutions via Homotopy Dynamics [7.890817997914349]
特定の摂動問題に対するニューラルネットワークのトレーニングは、損失関数にほぼ特異性を導入するPDEのパラメータによって困難である。
本稿では,これらのパラメータを効果的に操作するためのホモトピー力学に基づく新しい手法を提案する。
実験的に,本手法は収束を著しく加速し,これらの特異摂動問題の精度を向上することを示した。
論文 参考訳(メタデータ) (2025-02-01T16:26:53Z) - Which Optimizer Works Best for Physics-Informed Neural Networks and Kolmogorov-Arnold Networks? [1.8175282137722093]
我々は,バーガーズ,アレン・カシンスキー,ギンズバーグ・ランダウ方程式を含む,重要な挑戦的線形・剛性・多スケール非線形PDEについてPINNとPIKANを比較した。
PINN や PIKAN で一般的に用いられている他の機能拡張を使わずに改善点を明らかにした。
論文 参考訳(メタデータ) (2025-01-22T21:19:42Z) - Annealing Machine-assisted Learning of Graph Neural Network for Combinatorial Optimization [2.0643665408482517]
Annealing Machines (AM) は複雑な問題を解決する能力の増大を示している。
グラフニューラルネットワーク(GNN)は最近、問題解決に適応している。
本稿では,AMが提示する精度とGNNの表現の柔軟性とスケーラビリティを両立することを目的としたマージ手法を提案する。
論文 参考訳(メタデータ) (2025-01-10T10:36:46Z) - Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Graph Convolutional Branch and Bound [1.8966938152549224]
本稿では、ニューラルネットワークを用いて情報量(特に最適性スコア)を学習し、最適解の近さを推定する。
このスコアは、ブランチとバウンドのフレームワーク内のノードを評価するために使用され、ソリューション空間をより効率的にすることができる。
論文 参考訳(メタデータ) (2024-06-05T09:42:43Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons [50.33260238739837]
グラフネットワーク(GNN)は、グラフ構造化データから学習する際、顕著な能力を示した。
最適化と一般化の観点から、GNNと一般化を比較した分析の欠如がまだ残っている。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。