論文の概要: AMPNet: Attention as Message Passing for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2210.09475v1
- Date: Mon, 17 Oct 2022 23:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:26:24.076449
- Title: AMPNet: Attention as Message Passing for Graph Neural Networks
- Title(参考訳): AMPNet: グラフニューラルネットワークのメッセージパッシングとしての注意
- Authors: S. A. Rizvi, N. Nguyen, H. Lyu, B. Christensen, J. O. Caro, E.
Zappala, M. Brbic, R. M. Dhodapkar, D. V. Dijk
- Abstract要約: AMPNetは、グラフ構造化データ内の異なる空間位置間の特徴レベルの相互作用を明らかにするための一般的なグラフニューラルネットワーク(GNN)アーキテクチャである。
本フレームワークでは,異なるノード間の特徴的相互作用に基づいて,メッセージパッシング中に多面的注意操作を適用した。
我々は,機能相互作用に基づくノード状態の循環パターンを復元するフレームワークの能力をテストするために,サイクリックセルオートマトンに基づくベンチマークを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature-level interactions between nodes can carry crucial information for
understanding complex interactions in graph-structured data. Current
interpretability techniques, however, are limited in their ability to capture
feature-level interactions between different nodes. In this work, we propose
AMPNet, a general Graph Neural Network (GNN) architecture for uncovering
feature-level interactions between different spatial locations within
graph-structured data. Our framework applies a multiheaded attention operation
during message-passing to contextualize messages based on the feature
interactions between different nodes. We evaluate AMPNet on several benchmark
and real-world datasets, and develop a synthetic benchmark based on cyclic
cellular automata to test the ability of our framework to recover cyclic
patterns in node states based on feature-interactions. We also propose several
methods for addressing the scalability of our architecture to large graphs,
including subgraph sampling during training and node feature downsampling.
- Abstract(参考訳): ノード間の機能レベルの相互作用は、グラフ構造化データの複雑な相互作用を理解する上で重要な情報をもたらす。
しかし、現在の解釈技術は、異なるノード間の機能レベルのインタラクションをキャプチャする能力に制限がある。
本研究では,グラフ構造化データ内の異なる空間位置間の特徴レベルの相互作用を明らかにするための汎用グラフニューラルネットワーク(GNN)アーキテクチャであるAMPNetを提案する。
本フレームワークでは,異なるノード間の特徴的相互作用に基づいてメッセージのコンテキスト化を行う。
AMPNetを複数のベンチマークおよび実世界のデータセットで評価し,機能的相互作用に基づくノード状態の循環パターンの復元能力をテストするために,サイクリックセルオートマトンに基づく合成ベンチマークを開発した。
また、トレーニング中のサブグラフサンプリングやノード機能ダウンサンプリングなど、大規模グラフに対するアーキテクチャのスケーラビリティに対処するいくつかの方法を提案する。
関連論文リスト
- GOFA: A Generative One-For-All Model for Joint Graph Language Modeling [38.267339613261996]
この問題を解決するために,新たに生成グラフ言語モデルGOFAを提案する。
GOFAは、新たに提案されたグラフレベルの次単語予測、質問応答、構造的タスクに基づいて事前訓練されている。
モデルは様々な下流タスクに基づいて評価され、ゼロショットシナリオにおける構造的および文脈的問題を解く強力な能力を示す。
論文 参考訳(メタデータ) (2024-07-12T22:23:51Z) - Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - UniGraph: Learning a Unified Cross-Domain Foundation Model for Text-Attributed Graphs [30.635472655668078]
Text-Attributed Graphs (TAG) は、さまざまなドメインにまたがる見えないグラフやタスクに一般化することができる。
本稿では,言語モデル (LM) とグラフニューラルネットワーク (GNN) をバックボーンネットワークとして,新しいケースドアーキテクチャを提案する。
本モデルの有効性を,未確認グラフの自己教師型表現学習,少数ショットインコンテキスト転送,ゼロショット転送で実証する。
論文 参考訳(メタデータ) (2024-02-21T09:06:31Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。