論文の概要: Benchmarking Graph Neural Networks in Solving Hard Constraint Satisfaction Problems
- arxiv url: http://arxiv.org/abs/2602.18419v1
- Date: Fri, 20 Feb 2026 18:41:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.413241
- Title: Benchmarking Graph Neural Networks in Solving Hard Constraint Satisfaction Problems
- Title(参考訳): ハード制約充足問題の解法におけるグラフニューラルネットワークのベンチマーク
- Authors: Geri Skenderi, Lorenzo Buffoni, Francesco D'Amico, David Machado, Raffaele Marino, Matteo Negri, Federico Ricci-Tersenghi, Carlo Lucibello, Maria Chiara Angelini,
- Abstract要約: グラフニューラルネットワーク(GNN)は、古典的アルゴリズムよりも優れていると主張するハード最適化問題にますます適用されている。
統計的物理学的な観点から、ランダムな問題に基づく新しいハードベンチマークを提案する。
これらのベンチマークと、古典的なパフォーマンスとGNNのパフォーマンス結果を提供する。
- 参考スコア(独自算出の注目度): 12.674439476285754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are increasingly applied to hard optimization problems, often claiming superiority over classical heuristics. However, such claims risk being unsolid due to a lack of standard benchmarks on truly hard instances. From a statistical physics perspective, we propose new hard benchmarks based on random problems. We provide these benchmarks, along with performance results from both classical heuristics and GNNs. Our fair comparison shows that classical algorithms still outperform GNNs. We discuss the challenges for neural networks in this domain. Future claims of superiority can be made more robust using our benchmarks, available at https://github.com/ArtLabBocconi/RandCSPBench.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、しばしば古典的ヒューリスティックよりも優れていると主張するハード最適化問題にますます適用されている。
しかし、そのような主張は、真のハードなインスタンスに標準ベンチマークが欠如しているため、固まっていないリスクがある。
統計物理学の観点から、ランダムな問題に基づく新しいハードベンチマークを提案する。
これらのベンチマークと、古典的ヒューリスティックスとGNNのパフォーマンス結果を提供する。
我々の公正比較は、古典的アルゴリズムが依然としてGNNを上回っていることを示している。
この領域におけるニューラルネットワークの課題について論じる。
将来の優越性に関する主張は、我々のベンチマークを使ってより堅牢にすることができる。
関連論文リスト
- Benchmarking Stochastic Approximation Algorithms for Fairness-Constrained Training of Deep Neural Networks [0.0]
制約付きディープニューラルネットワーク(DNN)のトレーニング能力は、現代の機械学習モデルの公正性向上に有効である。
我々は,米国国勢調査(Folktables)上に構築された大規模公正制約付き実世界の学習タスクの挑戦的ベンチマークを提供する。
我々は最近提案された3つの非実装アルゴリズムを実装・比較することで、ベンチマークの使用を実証する。
論文 参考訳(メタデータ) (2025-07-05T13:01:18Z) - Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Benchmarking ChatGPT on Algorithmic Reasoning [58.50071292008407]
GNN向けに設計されたCLRSベンチマークスイートからChatGPTのアルゴリズム問題を解く能力を評価する。
ChatGPTは、Pythonを使ってこれらの問題を解決することで、専門家のGNNモデルより優れています。
論文 参考訳(メタデータ) (2024-04-04T13:39:06Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Cracking nuts with a sledgehammer: when modern graph neural networks do
worse than classical greedy algorithms [2.436681150766912]
ほぼ線形時間で実行される単純なグリージーアルゴリズムは、GNNよりもはるかに優れた品質のMIS問題の解を見つけることができることを示す。
これらのGNNでMISを解く理由や、ハンマーを使ってナッツを割る理由がよく分からない。
論文 参考訳(メタデータ) (2022-06-27T11:54:01Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Graph Neural Network for Large-Scale Network Localization [35.29322617956428]
グラフニューラルネットワーク(GNN)は、機械学習のコンテキストにおいて構造化データの分類に使用される。
本研究では,古典的だが難解な非線形回帰問題,すなわちネットワークローカライゼーションにGNNを採用する。
まず、GNNは、精度、堅牢性、計算時間の観点から、大規模ネットワークローカライゼーションの最適解である可能性がある。
論文 参考訳(メタデータ) (2020-10-22T12:39:26Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - GraphNorm: A Principled Approach to Accelerating Graph Neural Network
Training [101.3819906739515]
グラフニューラルネットワーク(GNN)における正規化の有効性について検討する。
BatchNormやLayerNormと比較して、インスタンスNormの方が高速に収束できる。
GraphNormはGNNの一般化も改善し、グラフ分類ベンチマークのパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-07T17:55:21Z) - Graph Random Neural Network for Semi-Supervised Learning on Graphs [36.218650686748546]
グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。