論文の概要: FloydNet: A Learning Paradigm for Global Relational Reasoning
- arxiv url: http://arxiv.org/abs/2601.19094v2
- Date: Sat, 31 Jan 2026 03:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 15:03:50.592288
- Title: FloydNet: A Learning Paradigm for Global Relational Reasoning
- Title(参考訳): FloydNet:グローバルリレーショナル推論のための学習パラダイム
- Authors: Jingcheng Yu, Mingliang Zeng, Qiwei Ye,
- Abstract要約: グラフニューラルネットワーク(GNN)は、メッセージパッシング機構によって根本的に制約されている。
この原則を具現化した新しいアーキテクチャであるFloydNetを紹介します。
FloydNetはグローバルな全対関係テンソルを維持し、一般化されたDP演算子を学び、それを徐々に洗練する。
- 参考スコア(独自算出の注目度): 5.289037838148407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing models capable of complex, multi-step reasoning is a central goal in artificial intelligence. While representing problems as graphs is a powerful approach, Graph Neural Networks (GNNs) are fundamentally constrained by their message-passing mechanism, which imposes a local bottleneck that limits global, holistic reasoning. We argue that dynamic programming (DP), which solves problems by iteratively refining a global state, offers a more powerful and suitable learning paradigm. We introduce FloydNet, a new architecture that embodies this principle. In contrast to local message passing, FloydNet maintains a global, all-pairs relationship tensor and learns a generalized DP operator to progressively refine it. This enables the model to develop a task-specific relational calculus, providing a principled framework for capturing long-range dependencies. Theoretically, we prove that FloydNet achieves 3-WL (2-FWL) expressive power, and its generalized form aligns with the k-FWL hierarchy. FloydNet demonstrates state-of-the-art performance across challenging domains: it achieves near-perfect scores (often >99\%) on the CLRS-30 algorithmic benchmark, finds exact optimal solutions for the general Traveling Salesman Problem (TSP) at rates significantly exceeding strong heuristics, and empirically matches the 3-WL test on the BREC benchmark. Our results establish this learned, DP-style refinement as a powerful and practical alternative to message passing for high-level graph reasoning.
- Abstract(参考訳): 複雑な多段階推論が可能なモデルを開発することは、人工知能の中心的な目標である。
グラフとして問題を表現することは強力なアプローチだが、グラフニューラルネットワーク(GNN)はメッセージパッシング機構によって根本的に制約されている。
我々は,グローバルな状態を反復的に精錬することで問題を解決する動的プログラミング(DP)が,より強力で適切な学習パラダイムを提供すると主張している。
この原則を具現化した新しいアーキテクチャであるFloydNetを紹介します。
ローカルメッセージパッシングとは対照的に、FloydNetはグローバルな全対関係テンソルを維持し、一般化されたDP演算子を学び、それを徐々に洗練する。
これにより、モデルがタスク固有のリレーショナル計算を開発することができ、長距離依存関係をキャプチャするための原則化されたフレームワークを提供する。
理論的には、FloydNet が 3-WL (2-FWL) 表現力を達成し、その一般化形式が k-FWL 階層と一致することを証明している。
FloydNetは、CLRS-30アルゴリズムベンチマークでほぼ完全なスコア(しばしば99\%)を達成し、一般的なトラベリングセールスマン問題(TSP)の正確な最適解を、強いヒューリスティックスを超える速度で見つけ、BRECベンチマークで3WLテストと経験的に一致させる。
その結果,高レベルグラフ推論のためのメッセージパッシングの強力な代替手段として,DPスタイルの洗練が実現された。
関連論文リスト
- DESIGN: Encrypted GNN Inference via Server-Side Input Graph Pruning [21.652233892742366]
DESIGN(EncrypteD GNN Inference via sErver-Side Input Graph pruNing)は、効率的な暗号化GNN推論のための新しいフレームワークである。
当社のフレームワークは,サーバ上で完全に実行される階層的最適化戦略により,大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-07-08T04:01:53Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Factor Graph Neural Networks [20.211455592922736]
グラフニューラルネットワーク(GNN)は、多くの現実世界のアプリケーションで大きな成功を収めながら、エンドツーエンドで強力な表現を学習することができる。
推論と学習の高次関係を効果的に捉えるためにFGNN(Facter Graph Neural Networks)を提案する。
論文 参考訳(メタデータ) (2023-08-02T00:32:02Z) - Long Range Pooling for 3D Large-Scale Scene Understanding [36.615977377193325]
我々は,3次元大規模シーン理解において重要な2つの要因を主張する。
本稿では,拡張最大プーリングを用いたLRP(Long Range pooling)モジュールを提案する。
LRPに基づいて,3次元理解のためのネットワークアーキテクチャであるLRPNetを提案する。
論文 参考訳(メタデータ) (2023-01-17T15:36:40Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - On Infinite-Width Hypernetworks [101.03630454105621]
我々は、ハイパーネットワークが、下降中のグローバルなミニマを保証していないことを示す。
我々は,これらのアーキテクチャの機能的先行を,対応するGPカーネルとNTKカーネルを導出することによって同定する。
この研究の一環として、標準完全連結ReLUネットワークの高次テイラー項の厳密な境界を導出した数学的貢献を行う。
論文 参考訳(メタデータ) (2020-03-27T00:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。