論文の概要: Robust Subgraph Learning by Monitoring Early Training Representations
- arxiv url: http://arxiv.org/abs/2403.09901v2
- Date: Mon, 18 Nov 2024 17:43:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:29:37.840395
- Title: Robust Subgraph Learning by Monitoring Early Training Representations
- Title(参考訳): 初期学習表現のモニタリングによるロバストなサブグラフ学習
- Authors: Sepideh Neshatfar, Salimeh Yasaei Sekeh,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
敵攻撃、特に感受性のあるノードによる攻撃に対する脆弱性は、意思決定において課題となる。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入し,グラフ入力の性能と対角的堅牢性に対処する。
- 参考スコア(独自算出の注目度): 5.524804393257921
- License:
- Abstract: Graph neural networks (GNNs) have attracted significant attention for their outstanding performance in graph learning and node classification tasks. However, their vulnerability to adversarial attacks, particularly through susceptible nodes, poses a challenge in decision-making. The need for robust graph summarization is evident in adversarial challenges resulting from the propagation of attacks throughout the entire graph. In this paper, we address both performance and adversarial robustness in graph input by introducing the novel technique SHERD (Subgraph Learning Hale through Early Training Representation Distances). SHERD leverages information from layers of a partially trained graph convolutional network (GCN) to detect susceptible nodes during adversarial attacks using standard distance metrics. The method identifies "vulnerable (bad)" nodes and removes such nodes to form a robust subgraph while maintaining node classification performance. Through our experiments, we demonstrate the increased performance of SHERD in enhancing robustness by comparing the network's performance on original and subgraph inputs against various baselines alongside existing adversarial attacks. Our experiments across multiple datasets, including citation datasets such as Cora, Citeseer, and Pubmed, as well as microanatomical tissue structures of cell graphs in the placenta, highlight that SHERD not only achieves substantial improvement in robust performance but also outperforms several baselines in terms of node classification accuracy and computational complexity.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
しかし、敵の攻撃、特に感受性のあるノードを通じての脆弱性は、意思決定に挑戦する。
頑健なグラフ要約の必要性は、グラフ全体にわたる攻撃の伝播によって生じる敵の課題において明らかである。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入することで,グラフ入力の性能と対向性の両方に対処する。
SHERDは、部分的に訓練されたグラフ畳み込みネットワーク(GCN)の層からの情報を活用し、標準距離メトリクスを使用して敵攻撃中の感受性ノードを検出する。
この手法は,ノードの分類性能を維持しつつ,そのようなノードを識別し,ロバストな部分グラフを形成する。
実験により,SHERDの性能向上を実証し,従来の敵攻撃と並行して,各種ベースラインに対して,元の入力とサブグラフ入力のネットワーク性能を比較することにより,ロバスト性の向上を図った。
我々の実験は、Cora, Citeseer, Pubmedなどの引用データセットや、胎盤の細胞グラフの微細解剖学的組織構造を含む複数のデータセットにまたがって行われ、SHERDは堅牢性の向上だけでなく、ノード分類精度や計算複雑性の観点からもいくつかのベースラインを上回ります。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - CHGNN: A Semi-Supervised Contrastive Hypergraph Learning Network [33.18119972779757]
ハイパーグラフは、ソーシャルネットワークやバイオインフォマティクスといったアプリケーションで見られるデータオブジェクト間の高次関係をモデル化することができる。
ラベル付きおよびラベルなしデータから学習するために,自己教師付きコントラスト学習技術を利用したコントラスト型ハイパーグラフニューラルネットワークCHGNNを提案する。
9つの実データセットの実験結果から、CHGNNの有効性に関する洞察が得られる。
論文 参考訳(メタデータ) (2023-03-10T21:28:10Z) - Spectral Adversarial Training for Robust Graph Neural Network [36.26575133994436]
グラフニューラルネットワーク(GNN)は、わずかながら逆向きに設計された摂動に対して脆弱である。
逆行訓練(Adversarial Training,AT)は、逆行的な摂動トレーニングサンプルを用いて頑健なモデルを学ぶための成功例である。
本稿では,GNNの簡易かつ効果的な対人訓練手法であるスペクトル対人訓練(SAT)を提案する。
論文 参考訳(メタデータ) (2022-11-20T07:56:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Subgraph Neural Networks [14.222887950206662]
本稿では,不整合部分グラフ表現を学習するためのサブグラフニューラルネットワークSubGNNを紹介する。
SubGNNは、挑戦的なバイオメディカルデータセットで非常によく機能する。
論文 参考訳(メタデータ) (2020-06-18T13:54:30Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。