論文の概要: Flow-Attentional Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2506.06127v1
- Date: Fri, 06 Jun 2025 14:37:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.518506
- Title: Flow-Attentional Graph Neural Networks
- Title(参考訳): Flow-Attentional Graph Neural Networks
- Authors: Pascal Plettenberg, Dominik Köhler, Bernhard Sick, Josephine M. Thomas,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データから学習するために欠かせないものとなっている。
既存のGNNは、物理資源の流れに関連したグラフに固有の保存法則を考慮していない。
フローアテンションは、グラフレベルの分類と回帰タスクの両方において、アテンションベースのGNNの性能を高めることを示す。
- 参考スコア(独自算出の注目度): 1.49199020343864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have become essential for learning from graph-structured data. However, existing GNNs do not consider the conservation law inherent in graphs associated with a flow of physical resources, such as electrical current in power grids or traffic in transportation networks, which can lead to reduced model performance. To address this, we propose flow attention, which adapts existing graph attention mechanisms to satisfy Kirchhoff\'s first law. Furthermore, we discuss how this modification influences the expressivity and identify sets of non-isomorphic graphs that can be discriminated by flow attention but not by standard attention. Through extensive experiments on two flow graph datasets (electronic circuits and power grids), we demonstrate that flow attention enhances the performance of attention-based GNNs on both graph-level classification and regression tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ構造化データから学習するために欠かせないものとなっている。
しかし、既存のGNNは、電力グリッドの電流や輸送ネットワークのトラフィックなどの物理的資源の流れに関連するグラフに固有の保存法則を考慮していないため、モデルの性能が低下する可能性がある。
そこで我々は,Kirchhoff の第一法則を満たすために,既存のグラフ注意機構に適応したフローアテンションを提案する。
さらに、この修正が表現性にどのように影響するかを論じ、フローアテンションによって識別できるが、標準アテンションによっては識別できない非同型グラフの集合を識別する。
2つのフローグラフデータセット(電子回路と電力グリッド)の広範な実験を通して、フローアテンションは、グラフレベルの分類と回帰タスクの両方において、注意に基づくGNNの性能を高めることを実証する。
関連論文リスト
- Topology-aware Neural Flux Prediction Guided by Physics [13.352980442733987]
グラフニューラルネットワーク(GNN)はしばしば、有向グラフを扱う際に、ノイズ信号の高周波成分を保存するのに苦労する。
本稿では, 1) 方向勾配をモデル化する明示的な差分行列と, 2) 自然法則に整合するGNN内を通過するメッセージを強制する暗黙の物理的制約とを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-06-06T02:01:50Z) - Locality-Aware Graph-Rewiring in GNNs [5.356465360780597]
グラフニューラルネットワーク(GNN)は、グラフ上の機械学習の一般的なモデルである。
本研究では,グラフ検索のための3つのデシラタを同定する: (i) オーバー・スクアッシングを減らし, (ii) グラフの局所性を尊重し, (iii) グラフの空間性を保存する。
i)iii のすべてを満たす新しいリウィリングフレームワークを,局所性を考慮したリウィリング操作のシーケンスを通じて提案する。
論文 参考訳(メタデータ) (2023-10-02T21:59:44Z) - Demystifying Oversmoothing in Attention-Based Graph Neural Networks [23.853636836842604]
グラフニューラルネットワーク(GNN)におけるオーバースムーシング(Oversmoothing in Graph Neural Networks)とは、ネットワーク深度の増加がノードの均質表現につながる現象である。
これまでの研究により、グラフ畳み込みネットワーク(GCN)は指数関数的に表現力を失うことが判明した。
グラフアテンション機構が過剰なスムースを緩和できるかどうかはまだ議論の余地がある。
論文 参考訳(メタデータ) (2023-05-25T14:31:59Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Discriminability of Single-Layer Graph Neural Networks [172.5042368548269]
グラフニューラルネットワーク(GNN)は、幅広い問題について有望な性能を示した。
本稿では, 識別可能性の特性に着目し, 安定グラフフィルタバンクへのポイントワイド非線形性の適用により, 高固有値コンテンツに対する識別能力が向上する条件を確立する。
論文 参考訳(メタデータ) (2020-10-17T18:52:34Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。