論文の概要: Probing Graph Neural Network Activation Patterns Through Graph Topology
- arxiv url: http://arxiv.org/abs/2602.21092v1
- Date: Tue, 24 Feb 2026 16:52:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.847998
- Title: Probing Graph Neural Network Activation Patterns Through Graph Topology
- Title(参考訳): グラフトポロジによるグラフニューラルネットワーク活性化パターンの探索
- Authors: Floriano Tori, Lorenzo Bini, Marco Sorbi, Stéphane Marchand-Maillet, Vincent Ginis,
- Abstract要約: グラフ上の曲率の概念は、グラフトポロジーの理論的な記述を提供し、ボトルネックとより密接な連結領域を強調する。
グラフのトポロジがグラフニューラルネットワークの学習された好みとどのように相互作用するかは、まだ不明である。
私たちの研究は、グラフ学習がいつ、なぜ失敗したかを理解するための診断プローブとして、曲率を再設定します。
- 参考スコア(独自算出の注目度): 4.917259718852399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Curvature notions on graphs provide a theoretical description of graph topology, highlighting bottlenecks and denser connected regions. Artifacts of the message passing paradigm in Graph Neural Networks, such as oversmoothing and oversquashing, have been attributed to these regions. However, it remains unclear how the topology of a graph interacts with the learned preferences of GNNs. Through Massive Activations, which correspond to extreme edge activation values in Graph Transformers, we probe this correspondence. Our findings on synthetic graphs and molecular benchmarks reveal that MAs do not preferentially concentrate on curvature extremes, despite their theoretical link to information flow. On the Long Range Graph Benchmark, we identify a systemic \textit{curvature shift}: global attention mechanisms exacerbate topological bottlenecks, drastically increasing the prevalence of negative curvature. Our work reframes curvature as a diagnostic probe for understanding when and why graph learning fails.
- Abstract(参考訳): グラフ上の曲率の概念は、グラフトポロジーの理論的な記述を提供し、ボトルネックとより密接な連結領域を強調する。
グラフニューラルネットワークにおけるメッセージパッシングパラダイム(オーバースムーシングやオーバースキャッシングなど)のアーチファクトは、これらの領域に起因している。
しかし、グラフのトポロジがGNNの学習された嗜好とどのように相互作用するかは定かではない。
グラフ変換器の極端エッジアクティベーション値に対応するMassive Activationsを通じて,この対応を探索する。
合成グラフと分子ベンチマークの結果から,MAは情報フローに理論的に関係があるにもかかわらず,曲率極端に優先的に集中していないことが明らかとなった。
また,Long Range Graph Benchmarkでは,グローバルアテンション機構がトポロジカルボトルネックを悪化させ,負の曲率の出現率を大幅に高めるという,体系的な‘textit{curvature shift}’を同定した。
私たちの研究は、グラフ学習がいつ、なぜ失敗したかを理解するための診断プローブとして、曲率を再設定します。
関連論文リスト
- GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks [66.07512871031163]
ラベルなしグラフデータよりも強力なグラフニューラルネットワーク(GNN)を事前学習する。
適応段階では、グラフプロンプトは学習可能なプロンプトで入力グラフデータを修正し、事前学習されたGNNモデルを凍結し続ける。
本稿では,事前学習したGNNモデルを下流タスクに効果的に適用するために,最初の**Graph****opology-**O**riented **P**rompting(GraphTOP)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-25T22:50:12Z) - Disentangled Graph Representation Based on Substructure-Aware Graph Optimal Matching Kernel Convolutional Networks [4.912298804026689]
グラフは関係データを効果的に特徴付け、グラフ表現学習法を駆動する。
最近の不整合グラフ表現学習は、グラフデータの独立因子を分離することにより、解釈可能性を高める。
本稿では,この制限に対処するグラフ最適マッチングカーネル畳み込みネットワーク(GOMKCN)を提案する。
論文 参考訳(メタデータ) (2025-04-23T02:26:33Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Line Graph Vietoris-Rips Persistence Diagram for Topological Graph Representation Learning [3.6881508872690825]
トポロジカルエッジ図(TED)と呼ばれる新しいエッジフィルタを用いた永続化図を導入する。
TEDは、ノードの埋め込み情報を保存し、追加の位相情報を含むことが数学的に証明されている。
本稿では,グラフを行グラフに変換することによってエッジ情報を抽出するLine Graph Vietoris-Rips (LGVR) Persistence Diagramを提案する。
論文 参考訳(メタデータ) (2024-12-23T10:46:44Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Graph Anomaly Detection with Graph Neural Networks: Current Status and
Challenges [9.076649460696402]
グラフニューラルネットワーク(GNN)は広く研究され、困難な機械学習タスクを成功させた。
本調査は,GNNに基づくグラフ異常検出手法の総合的なレビューとしては初めてである。
論文 参考訳(メタデータ) (2022-09-29T16:47:57Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Graph Signal Processing -- Part III: Machine Learning on Graphs, from
Graph Topology to Applications [19.29066508374268]
このモノグラフのパートIIIは、グラフトポロジーを学ぶ方法に対処することから始まる。
特に注目されるのは、観測データの相関および精度行列に基づくグラフトポロジーの定義である。
スパースグラフの学習には、LASSOとして知られる最小絶対縮小と選択演算子を用いる。
論文 参考訳(メタデータ) (2020-01-02T13:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。