論文の概要: G-Signatures: Global Graph Propagation With Randomized Signatures
- arxiv url: http://arxiv.org/abs/2302.08811v2
- Date: Wed, 30 Aug 2023 08:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 17:43:58.945329
- Title: G-Signatures: Global Graph Propagation With Randomized Signatures
- Title(参考訳): G-Signatures: ランダムな署名によるグローバルグラフの伝播
- Authors: Bernhard Sch\"afl, Lukas Gruber, Johannes Brandstetter, Sepp
Hochreiter
- Abstract要約: ランダム化シグネチャによるグローバルグラフの伝播を可能にする新しいグラフ学習手法であるG-Signaturesを紹介する。
G-Signaturesはグラフ変換の概念を使ってグラフ構造化情報を埋め込む。
G-Signaturesはグローバルグラフ特性の抽出と処理に優れ、大きなグラフ問題に効果的にスケールする。
- 参考スコア(独自算出の注目度): 18.38023807679635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have evolved into one of the most popular deep
learning architectures. However, GNNs suffer from over-smoothing node
information and, therefore, struggle to solve tasks where global graph
properties are relevant. We introduce G-Signatures, a novel graph learning
method that enables global graph propagation via randomized signatures.
G-Signatures use a new graph conversion concept to embed graph structured
information which can be interpreted as paths in latent space. We further
introduce the idea of latent space path mapping. This allows us to iteratively
traverse latent space paths, and, thus globally process information.
G-Signatures excel at extracting and processing global graph properties, and
effectively scale to large graph problems. Empirically, we confirm the
advantages of G-Signatures at several classification and regression tasks.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、最も人気のあるディープラーニングアーキテクチャの1つに進化した。
しかし、GNNは過度に滑らかなノード情報に悩まされており、グローバルグラフ特性が関係するタスクの解決に苦慮している。
ランダム化シグネチャによるグローバルグラフの伝播を可能にする新しいグラフ学習手法であるG-Signaturesを紹介する。
g-signaturesは新しいグラフ変換概念を使用して、潜在空間のパスとして解釈可能なグラフ構造化情報を埋め込む。
さらに、潜時空間経路マッピングの考え方を紹介する。
これにより、潜在空間パスを反復的に横断し、情報をグローバルに処理することができる。
G-Signaturesはグローバルグラフ特性の抽出と処理に優れ、大きなグラフ問題に効果的にスケールする。
経験的に、いくつかの分類および回帰タスクにおけるG-Signaturesの利点を確認する。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - GraphAlign: Pretraining One Graph Neural Network on Multiple Graphs via Feature Alignment [30.56443056293688]
グラフ自己教師型学習(SSL)は、グラフ構造化データによるマイニングと学習をかなり約束する。
本研究では,グラフニューラルネットワーク(GNN)を,豊富なノード特徴を持つグラフのコレクションにプリトレーニングすることを目的としている。
本稿では,既存のグラフSSLフレームワークにシームレスに統合可能な汎用GraphAlign法を提案する。
論文 参考訳(メタデータ) (2024-06-05T05:22:32Z) - GSINA: Improving Subgraph Extraction for Graph Invariant Learning via
Graph Sinkhorn Attention [52.67633391931959]
グラフ不変学習(GIL)は,グラフデータとそのラベル間の不変性を発見するための効果的な手法である。
グラフシンクホーン注意機構(GSINA)を提案する。
GSINAは、制御可能な空間性と柔らかさを持つ有意義で微分可能な不変部分グラフを得ることができる。
論文 参考訳(メタデータ) (2024-02-11T12:57:16Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - SignGT: Signed Attention-based Graph Transformer for Graph
Representation Learning [15.248591535696146]
本稿では,グラフから様々な周波数情報を適応的に取得するSigned Attention-based Graph Transformer (SignGT)を提案する。
具体的には、SignGTは、ノードペアの意味的関連性に応じて署名された注意値を生成する、署名付き自己注意機構(SignSA)を新たに開発した。
論文 参考訳(メタデータ) (2023-10-17T06:42:11Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - GraphCrop: Subgraph Cropping for Graph Classification [36.33477716380905]
我々は,サブ構造欠落の現実的なノイズをシミュレートするtextbfGraphCrop (Subgraph Cropping) データ拡張法を開発した。
グラフ分類のための有効な構造コンテキストを保存することにより、GNNはグローバルな意味でグラフ構造の内容を理解することを奨励する。
論文 参考訳(メタデータ) (2020-09-22T14:05:41Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。