論文の概要: Topologic Attention Networks: Attending to Direct and Indirect Neighbors through Gaussian Belief Propagation
- arxiv url: http://arxiv.org/abs/2511.16871v1
- Date: Fri, 21 Nov 2025 00:43:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.851624
- Title: Topologic Attention Networks: Attending to Direct and Indirect Neighbors through Gaussian Belief Propagation
- Title(参考訳): トポロジカルアテンションネットワーク:ガウス的信念の伝播を通した直接的および間接的隣人への取り組み
- Authors: Marshall Rosenhoover, Huaming Zhang,
- Abstract要約: グラフニューラルネットワークは、グラフ内の長距離依存関係をモデル化する能力を制限する、ローカルメッセージパッシングに依存している。
グラフ内の直接接続と間接接続の両方を通して情報がどのように流れるかを学ぶ確率的メカニズムであるトポロジカルアテンションネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.9668407688201359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks rely on local message passing, which limits their ability to model long-range dependencies in graphs. Existing approaches extend this range through continuous-time dynamics or dense self-attention, but both suffer from high computational cost and limited scalability. We propose Topologic Attention Networks, a new framework that applies topologic attention, a probabilistic mechanism that learns how information should flow through both direct and indirect connections in a graph. Unlike conventional attention that depends on explicit pairwise interactions, topologic attention emerges from the learned information propagation of the graph, enabling unified reasoning over local and global relationships. This method achieves provides state-of-the-art performance across all measured baseline models. Our implementation is available at https://github.com/Marshall-Rosenhoover/Topologic-Attention-Networks.
- Abstract(参考訳): グラフニューラルネットワークは、グラフ内の長距離依存関係をモデル化する能力を制限する、ローカルメッセージパッシングに依存している。
既存のアプローチはこの範囲を、連続時間力学や密集した自己注意を通じて拡張するが、どちらも高い計算コストと限られたスケーラビリティに悩まされている。
グラフ内の直接接続と間接接続の両方を通して情報がどのように流れるかを学ぶ確率的メカニズムであるトポロジカルアテンションネットワークを提案する。
明示的な対の相互作用に依存する従来の注意とは異なり、トポロジカルな注意はグラフの学習された情報伝達から現れ、局所的およびグローバルな関係に対する統一的な推論を可能にする。
この手法は,すべてのベースラインモデルに対して,最先端の性能を提供する。
実装はhttps://github.com/Marshall-Rosenhoover/Topological-Attention-Networksで公開しています。
関連論文リスト
- Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - DeltaGNN: Graph Neural Network with Information Flow Control [5.563171090433323]
グラフニューラルネットワーク(GNN)は、メッセージパッシングプロセスの近傍集約を通じてグラフ構造化データを処理するように設計されている。
メッセージパッシングにより、GNNは短距離空間的相互作用を理解できるだけでなく、過度なスムーシングや過度なスカッシングに悩まされる。
本稿では,線形計算オーバーヘッドを伴うオーバー・スムーシングとオーバー・スキャッシングに対処するための,emph情報フロー制御機構を提案する。
さまざまなサイズ、トポロジ、密度、ホモフィリック比のグラフを含む10の実世界のデータセットを対象に、我々のモデルをベンチマークし、優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-10T14:34:20Z) - Representation Learning on Heterophilic Graph with Directional
Neighborhood Attention [8.493802098034255]
Graph Attention Network(GAT)は、最も人気のあるGraph Neural Network(GNN)アーキテクチャの1つである。
GATは、長距離およびグローバルグラフ情報をキャプチャする能力に欠けており、いくつかのデータセットで不満足なパフォーマンスをもたらす。
本稿では,特徴に基づく注意と,グラフトポロジから抽出したグローバルな方向性情報を組み合わせるために,DGAT(Directional Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-03T10:59:16Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Topological Neural Networks: Mitigating the Bottlenecks of Graph Neural
Networks via Higher-Order Interactions [1.994307489466967]
この研究は、メッセージパッシングニューラルネットワークにおいて、ネットワークの幅、深さ、グラフトポロジがオーバーカッシング現象に与える影響を明らかにする理論的枠組みから始まる。
この研究は、トポロジカルニューラルネットワークを通して高次相互作用と多関係帰納バイアスへと流れていく。
グラフ注意ネットワークにインスパイアされた2つのトポロジカルアテンションネットワーク(Simplicial and Cell Attention Networks)が提案されている。
論文 参考訳(メタデータ) (2024-02-10T08:26:06Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Causally-guided Regularization of Graph Attention Improves
Generalizability [69.09877209676266]
本稿では,グラフアテンションネットワークのための汎用正規化フレームワークであるCARを紹介する。
メソッド名は、グラフ接続に対するアクティブ介入の因果効果とアテンションメカニズムを一致させる。
ソーシャル・メディア・ネットワーク規模のグラフでは、CAR誘導グラフ再構成アプローチにより、グラフの畳み込み手法のスケーラビリティとグラフの注意力の向上を両立させることができる。
論文 参考訳(メタデータ) (2022-10-20T01:29:10Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Spatio-Temporal Latent Graph Structure Learning for Traffic Forecasting [6.428566223253948]
S-Temporal Latent Graph Structure Learning Network (ST-LGSL) を提案する。
このモデルは多層パーセプトロンとK-Nearest Neighborに基づくグラフを用いて、データ全体から潜在グラフトポロジ情報を学習する。
kNNの接地確率行列に基づく依存関係-kNNと類似度メートル法により、ST-LGSLは地理的およびノード類似度に重点を置くトップを集約する。
論文 参考訳(メタデータ) (2022-02-25T10:02:49Z) - GCN for HIN via Implicit Utilization of Attention and Meta-paths [104.24467864133942]
不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
論文 参考訳(メタデータ) (2020-07-06T11:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。