論文の概要: ASGNN: Graph Neural Networks with Adaptive Structure
- arxiv url: http://arxiv.org/abs/2210.01002v1
- Date: Mon, 3 Oct 2022 15:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:46:18.460214
- Title: ASGNN: Graph Neural Networks with Adaptive Structure
- Title(参考訳): ASGNN:適応構造を持つグラフニューラルネットワーク
- Authors: Zepeng Zhang, Songtao Lu, Zengfeng Huang, Ziping Zhao
- Abstract要約: 本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
- 参考スコア(独自算出の注目度): 41.83813812538167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The graph neural network (GNN) models have presented impressive achievements
in numerous machine learning tasks. However, many existing GNN models are shown
to be vulnerable to adversarial attacks, which creates a stringent need to
build robust GNN architectures. In this work, we propose a novel interpretable
message passing scheme with adaptive structure (ASMP) to defend against
adversarial attacks on graph structure. Layers in ASMP are derived based on
optimization steps that minimize an objective function that learns the node
feature and the graph structure simultaneously. ASMP is adaptive in the sense
that the message passing process in different layers is able to be carried out
over dynamically adjusted graphs. Such property allows more fine-grained
handling of the noisy (or perturbed) graph structure and hence improves the
robustness. Convergence properties of the ASMP scheme are theoretically
established. Integrating ASMP with neural networks can lead to a new family of
GNN models with adaptive structure (ASGNN). Extensive experiments on
semi-supervised node classification tasks demonstrate that the proposed ASGNN
outperforms the state-of-the-art GNN architectures in terms of classification
performance under various adversarial attacks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)モデルは、多くの機械学習タスクにおいて素晴らしい成果を上げている。
しかし、多くの既存のGNNモデルは敵攻撃に弱いことが示されており、堅牢なGNNアーキテクチャを構築するために厳しい必要性が生じる。
本研究では,適応構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPの層は、ノードの特徴とグラフ構造を同時に学習する目的関数を最小限に抑える最適化ステップに基づいて導出される。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
このような特性により、ノイズ(あるいは摂動)グラフ構造をよりきめ細かい扱いが可能になり、ロバスト性が向上する。
ASMPスキームの収束特性は理論的に確立されている。
ASMPとニューラルネットワークを統合することで、適応構造(ASGNN)を備えたGNNモデルの新たなファミリーにつながる可能性がある。
半教師付きノード分類タスクに関する大規模な実験により、提案したASGNNは、様々な敵攻撃下での分類性能において最先端のGNNアーキテクチャよりも優れていることを示した。
関連論文リスト
- AdaRC: Mitigating Graph Structure Shifts during Test-Time [66.40525136929398]
テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
AdaRCは,グラフの構造シフトに効果的かつ効率的な適応を意図した,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T15:15:40Z) - SFR-GNN: Simple and Fast Robust GNNs against Structural Attacks [13.30477801940754]
グラフニューラルネットワーク(GNN)は,グラフ構造化データに対する可換性を示す。
GNNはグラフトポロジーに依存するため、しばしば敵対的な構造攻撃に対して脆弱である。
本稿では,SFR-GNN (Simple and Fast Robust Graph Neural Network) と呼ばれる,相互情報理論をサポートする効率的な防御手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T13:52:28Z) - Graph Neural Networks Gone Hogwild [14.665528337423249]
メッセージパッシンググラフニューラルネットワーク(GNN)は、推論中にノードが非同期に更新されると、破滅的に誤った予測を生成する。
本研究では、GNNを、部分的に非同期な"hogwild"推論に対して確実に堅牢なアーキテクチャのクラスとして識別する。
そこで我々は,エネルギーGNNと呼ぶ,暗黙的に定義されたGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-29T17:11:09Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Attentional Graph Neural Networks for Robust Massive Network
Localization [20.416879207269446]
グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - MuseGNN: Interpretable and Convergent Graph Neural Network Layers at
Scale [15.93424606182961]
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。