論文の概要: Graph Learning with Distributional Edge Layouts
- arxiv url: http://arxiv.org/abs/2402.16402v1
- Date: Mon, 26 Feb 2024 08:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:06:18.912707
- Title: Graph Learning with Distributional Edge Layouts
- Title(参考訳): 分散エッジレイアウトを用いたグラフ学習
- Authors: Xinjian Zhao, Chaolong Ying, Tianshu Yu
- Abstract要約: グラフニューラルネットワーク(GNN)は、特定のトポロジ的レイアウト上のエッジに沿って隣接するノード間でローカルメッセージを渡すことによって、グラフ構造化データから学習する。
本稿では,これらのレイアウトを,ボルツマン分布に明示的な物理エネルギーを付加したランゲイン力学を用いて,世界規模でサンプル化できることを初めて提案する。
このようなサンプル/最適化レイアウトの集合は、広いエネルギー分布を捕捉し、WLテストの上に余分な表現性をもたらし、従って下流タスクを緩和することができると論じる。
- 参考スコア(独自算出の注目度): 9.52772979855822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) learn from graph-structured data by passing
local messages between neighboring nodes along edges on certain topological
layouts. Typically, these topological layouts in modern GNNs are
deterministically computed (e.g., attention-based GNNs) or locally sampled
(e.g., GraphSage) under heuristic assumptions. In this paper, we for the first
time pose that these layouts can be globally sampled via Langevin dynamics
following Boltzmann distribution equipped with explicit physical energy,
leading to higher feasibility in the physical world. We argue that such a
collection of sampled/optimized layouts can capture the wide energy
distribution and bring extra expressivity on top of WL-test, therefore easing
downstream tasks. As such, we propose Distributional Edge Layouts (DELs) to
serve as a complement to a variety of GNNs. DEL is a pre-processing strategy
independent of subsequent GNN variants, thus being highly flexible.
Experimental results demonstrate that DELs consistently and substantially
improve a series of GNN baselines, achieving state-of-the-art performance on
multiple datasets.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、特定のトポロジカルレイアウト上のエッジに沿って隣接ノード間でローカルメッセージを渡すことによって、グラフ構造データから学習する。
一般に、現代のGNNにおけるこれらのトポロジ的レイアウトは決定論的に計算される(注意ベースのGNNなど)か、あるいはヒューリスティックな仮定の下で局所的にサンプリングされる(グラフセージなど)。
本稿では,これらのレイアウトをボルツマン分布に付随するランジュバンダイナミクスを用いて,物理エネルギーを明示的に満たし,物理世界において高い実現可能性をもたらすことを初めて提示する。
このようなサンプル/最適化レイアウトの集合は、広いエネルギー分布を捕捉し、WLテストの上に余分な表現性をもたらし、従って下流タスクを緩和することができると論じる。
そこで我々は,様々なGNNの補完として,分散エッジレイアウト(DEL)を提案する。
DELは、その後のGNNの派生とは独立して事前処理戦略であり、非常に柔軟である。
実験の結果、DELは一連のGNNベースラインを一貫して、実質的に改善し、複数のデータセット上で最先端のパフォーマンスを達成することが示された。
関連論文リスト
- DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Tackling Oversmoothing in GNN via Graph Sparsification: A Truss-based Approach [1.4854797901022863]
本稿では,グラフの高密度領域からエッジを抽出する新鮮で柔軟なトラスグラフスペーシフィケーションモデルを提案する。
次に、GIN、SAGPool、GMT、DiffPool、MinCutPool、HGP-SL、DMonPool、AdamGNNといった最先端のベースラインGNNとプールモデルでスパーシフィケーションモデルを利用する。
論文 参考訳(メタデータ) (2024-07-16T17:21:36Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Deep Ensembles for Graphs with Higher-order Dependencies [13.164412455321907]
グラフニューラルネットワーク(GNN)は多くのグラフ学習タスクで最先端のパフォーマンスを継続する。
従来のグラフ表現が各ノードの近傍に不適合な傾向は,既存のGNNの一般化に悪影響を及ぼすことを示す。
本稿では,同一ノードの異なる近傍部分空間上でGNNのアンサンブルを訓練することにより,近傍のばらつきを捉える新しいディープグラフアンサンブル(DGE)を提案する。
論文 参考訳(メタデータ) (2022-05-27T14:01:08Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。