論文の概要: Perseus: Leveraging Common Data Patterns with Curriculum Learning for More Robust Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2410.12425v1
- Date: Wed, 16 Oct 2024 10:08:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:41:42.175205
- Title: Perseus: Leveraging Common Data Patterns with Curriculum Learning for More Robust Graph Neural Networks
- Title(参考訳): Perseus: よりロバストなグラフニューラルネットワークのためのカリキュラム学習による共通データパターンの活用
- Authors: Kaiwen Xia, Huijun Wu, Duanyu Li, Min Xie, Ruibo Wang, Wenzhe Zhang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータを扱うのに優れるが、敵の攻撃に弱いままである。
本稿では,カリキュラム学習に基づく新たな対人防御手法であるPerseusを提案する。
実験の結果、ペルセウスは優れた性能を発揮し、敵の攻撃に対してはるかに堅牢であることが示された。
- 参考スコア(独自算出の注目度): 4.196444883507288
- License:
- Abstract: Graph Neural Networks (GNNs) excel at handling graph data but remain vulnerable to adversarial attacks. Existing defense methods typically rely on assumptions like graph sparsity and homophily to either preprocess the graph or guide structure learning. However, preprocessing methods often struggle to accurately distinguish between normal edges and adversarial perturbations, leading to suboptimal results due to the loss of valuable edge information. Robust graph neural network models train directly on graph data affected by adversarial perturbations, without preprocessing. This can cause the model to get stuck in poor local optima, negatively affecting its performance. To address these challenges, we propose Perseus, a novel adversarial defense method based on curriculum learning. Perseus assesses edge difficulty using global homophily and applies a curriculum learning strategy to adjust the learning order, guiding the model to learn the full graph structure while adaptively focusing on common data patterns. This approach mitigates the impact of adversarial perturbations. Experiments show that models trained with Perseus achieve superior performance and are significantly more robust to adversarial attacks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータの処理に優れるが、敵の攻撃に弱いままである。
既存の防御手法は、グラフのスパーシリティやホモフィリーといった仮定に頼り、グラフを前処理するか、構造学習をガイドする。
しかし, 前処理手法は, 通常のエッジと逆方向の摂動を正確に区別するのに苦慮し, 貴重なエッジ情報の欠落による準最適結果をもたらすことが多い。
ロバストグラフニューラルネットワークモデルは、前処理なしで、逆方向の摂動に影響されたグラフデータを直接トレーニングする。
これにより、モデルはローカルの最適性に乏しくなり、パフォーマンスに悪影響を及ぼす可能性がある。
これらの課題に対処するために,カリキュラム学習に基づく新しい対角防御手法であるPerseusを提案する。
Perseusは、グローバルなホモフィリーを用いてエッジの難易度を評価し、学習順序を調整するためのカリキュラム学習戦略を適用し、一般的なデータパターンに適応しながら、完全なグラフ構造を学ぶためのモデルを導く。
このアプローチは敵の摂動の影響を緩和する。
実験により、ペルセウスで訓練されたモデルは優れた性能を発揮し、敵の攻撃に対してはるかに堅牢であることが示された。
関連論文リスト
- Uncovering Capabilities of Model Pruning in Graph Contrastive Learning [0.0]
我々は、拡張ビューではなく、異なるモデルバージョンを対比することで、グラフのコントラスト学習の問題を再構築する。
教師なしおよび転送学習によるグラフ分類に関する様々なベンチマークにおいて,本手法を広範囲に検証する。
論文 参考訳(メタデータ) (2024-10-27T07:09:31Z) - Talos: A More Effective and Efficient Adversarial Defense for GNN Models Based on the Global Homophily of Graphs [2.4866716181615467]
グラフニューラルネットワーク(GNN)モデルは、敵攻撃の影響を受けやすい。
そこで我々は,グラフの局所的ホモフィリーを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T08:08:01Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge [126.32842151537217]
現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-26T09:18:58Z) - Node Copying for Protection Against Graph Neural Network Topology
Attacks [24.81359861632328]
特に、グラフトポロジの破損は、グラフベースの学習アルゴリズムの性能を著しく低下させる可能性がある。
本稿では,ノードコピーを用いて,敵攻撃による分類の劣化を緩和するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-09T18:09:55Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。