論文の概要: Enhancing Robustness of Graph Neural Networks through p-Laplacian
- arxiv url: http://arxiv.org/abs/2409.19096v1
- Date: Fri, 27 Sep 2024 18:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:30:57.909684
- Title: Enhancing Robustness of Graph Neural Networks through p-Laplacian
- Title(参考訳): p-ラプラシアンによるグラフニューラルネットワークのロバスト性向上
- Authors: Anuj Kumar Sirohi, Subhanu Halder, Kabir Kumar, Sandeep Kumar,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なアプリケーションにおいて大きな可能性を秘めている。
訓練中(中毒発作)またはテスト中(回避攻撃)に、データ上で敵の攻撃が起こり得る
本稿では,重み付き p-Laplacian をベースとした計算効率のよいフレームワーク,すなわち pLapGNN を提案する。
- 参考スコア(独自算出の注目度): 2.3942577670144423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increase of data in day-to-day life, businesses and different stakeholders need to analyze the data for better predictions. Traditionally, relational data has been a source of various insights, but with the increase in computational power and the need to understand deeper relationships between entities, the need to design new techniques has arisen. For this graph data analysis has become an extraordinary tool for understanding the data, which reveals more realistic and flexible modelling of complex relationships. Recently, Graph Neural Networks (GNNs) have shown great promise in various applications, such as social network analysis, recommendation systems, drug discovery, and more. However, many adversarial attacks can happen over the data, whether during training (poisoning attack) or during testing (evasion attack), which can adversely manipulate the desired outcome from the GNN model. Therefore, it is crucial to make the GNNs robust to such attacks. The existing robustness methods are computationally demanding and perform poorly when the intensity of attack increases. This paper presents a computationally efficient framework, namely, pLapGNN, based on weighted p-Laplacian for making GNNs robust. Empirical evaluation on real datasets establishes the efficacy and efficiency of the proposed method.
- Abstract(参考訳): 日々の生活におけるデータの増加に伴い、ビジネスと異なる利害関係者は、より良い予測のためにデータを分析する必要がある。
伝統的に、リレーショナルデータは様々な洞察の源となっているが、計算能力の増大と、エンティティ間の深い関係を理解する必要性により、新しいテクニックを設計する必要性が生まれている。
このグラフデータ分析は、複雑な関係のより現実的で柔軟なモデリングを明らかにする、データを理解するための特別なツールとなっている。
近年、グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析、レコメンデーションシステム、薬物発見など、様々な応用において大きな可能性を示している。
しかし、多くの敵攻撃は、訓練中(中毒攻撃)でもテスト中(回避攻撃)でもデータ上で起こり、GNNモデルから望ましい結果を悪用することができる。
したがって、そのような攻撃に対してGNNを堅牢にすることが不可欠である。
既存のロバストネス法は、攻撃の強度が増加すると、計算的に要求され、性能が良くない。
本稿では,重み付き p-Laplacian をベースとした計算効率のよいフレームワーク,すなわち pLapGNN を提案する。
実データセットの実証評価は,提案手法の有効性と有効性を確立する。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Rethinking Causal Relationships Learning in Graph Neural Networks [24.7962807148905]
本稿では,GNNの因果学習能力を高めるために,軽量で適応可能なGNNモジュールを提案する。
提案モジュールの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-15T08:54:32Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - How effective are Graph Neural Networks in Fraud Detection for Network
Data? [0.0]
グラフベースニューラルネットワーク(GNN)は、ノード(およびグラフ)の表現を学習するために作成された最近のモデルである。
金融詐欺は社会経済的関連性や、正の(詐欺)と負の(定期的な)取引(英語版)の間の極端な不均衡など、特定の課題を提示することで際立っている。
この2つの課題を考慮し,既存のネットワーク不正検出手法の評価実験を行った。
論文 参考訳(メタデータ) (2021-05-30T15:17:13Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。