論文の概要: Enhancing Robustness of Graph Neural Networks through p-Laplacian
- arxiv url: http://arxiv.org/abs/2511.06143v1
- Date: Sat, 08 Nov 2025 21:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.778267
- Title: Enhancing Robustness of Graph Neural Networks through p-Laplacian
- Title(参考訳): p-ラプラシアンによるグラフニューラルネットワークのロバスト性向上
- Authors: Anuj Kumar Sirohi, Subhanu Halder, Kabir Kumar, Sandeep Kumar,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析、レコメンデーションシステム、薬物発見など、様々なap-plicationにおいて大きな可能性を示してきた。
本稿では, 重み付き p-Laplacian をベースとした, GNN を堅牢化するための計算効率の高い頑健性フレームワークである pLAPGNN を提案する。
- 参考スコア(独自算出の注目度): 2.984286239048672
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increase of data in day-to-day life, businesses and different stakeholders need to analyze the data for better pre- dictions. Traditionally, relational data has been a source of various insights, but with the increase in computational power and the need to understand deeper relationships between en- tities, the need to design new techniques has arisen. For this graph data analysis has become an extraordinary tool for un- derstanding the data, which reveals more realistic and flexible modelling of complex relationships. Recently, Graph Neural Networks (GNNs) have shown great promise in various ap- plications, such as social network analysis, recommendation systems, drug discovery, and more. However, many adversar- ial attacks can happen over the data, whether during training (poisoning attack) or during testing (evasion attack), which can adversely manipulate the desired outcome from the GNN model. Therefore, it is crucial to make the GNNs robust to such attacks. The existing robustness methods are computa- tionally demanding and perform poorly when the intensity of attack increases. This paper presents a computationally ef- ficient framework, namely, pLAPGNN, based on weighted p-Laplacian for making GNNs robust. Empirical evaluation on real datasets establishes the efficacy and efficiency of the proposed method.
- Abstract(参考訳): 日々の生活におけるデータの増加に伴い、ビジネスと異なる利害関係者は、より良いプレディションのためにデータを分析する必要がある。
伝統的に、リレーショナルデータは様々な洞察の源となっているが、計算能力の増大と、エンティリティ間の深い関係を理解する必要性により、新しいテクニックを設計する必要性が生まれている。
このグラフデータ分析は、複雑な関係のより現実的で柔軟なモデリングを明らかにするために、データの理解を損なう特別なツールとなっている。
近年、グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析、レコメンデーションシステム、薬物発見など、様々なap-plicationにおいて大きな可能性を示している。
しかし、GNNモデルから望まれる結果を悪用できる訓練中(毒殺攻撃)やテスト中(脱避攻撃)など、多くの敵対的・敵的攻撃がデータ上で起こりうる。
したがって、そのような攻撃に対してGNNを堅牢にすることが不可欠である。
既存のロバストネス法は、攻撃の強度が増加すると、オプションで要求され、性能が悪くなる。
本稿では, 重み付き p-Laplacian を基礎として GNN を堅牢化するための計算効率の良いフレームワークである pLAPGNN を提案する。
実データセットの実証評価は,提案手法の有効性と有効性を確立する。
関連論文リスト
- Neural Networks for Censored Expectile Regression Based on Data Augmentation [7.4480203741653535]
異種検閲データのモデリングのためのデータ拡張に基づくERNNアルゴリズムであるDAERNNを提案する。
シミュレーション研究と実データ応用により、DAERNNは既存の検閲されたERNNよりも優れており、完全に観測されたデータに基づいて訓練されたモデルに匹敵する予測性能が得られることを示した。
論文 参考訳(メタデータ) (2025-10-23T08:42:23Z) - Exploiting Meta-Learning-based Poisoning Attacks for Graph Link Prediction [16.068226406204253]
グラフデータのリンク予測は、グラフノード間の潜在的な関係を予測するために、様々なアルゴリズムとグラフニューラルネットワーク(GNN)モデルを使用する。
近年の研究では、毒や脱走攻撃などの敵攻撃に対するGNNモデルの脆弱性が強調されている。
本稿では,GNNのリンク予測性能を低下させるために,メタラーニングと重み付きスキームを用いたグラフ中毒攻撃を導入する。
論文 参考訳(メタデータ) (2025-04-08T23:36:29Z) - Enhancing Robustness of Graph Neural Networks through p-Laplacian [2.3942577670144423]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにおいて大きな可能性を秘めている。
訓練中(中毒発作)またはテスト中(回避攻撃)に、データ上で敵の攻撃が起こり得る
本稿では,重み付き p-Laplacian をベースとした計算効率のよいフレームワーク,すなわち pLapGNN を提案する。
論文 参考訳(メタデータ) (2024-09-27T18:51:05Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Rethinking Causal Relationships Learning in Graph Neural Networks [24.7962807148905]
本稿では,GNNの因果学習能力を高めるために,軽量で適応可能なGNNモジュールを提案する。
提案モジュールの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-15T08:54:32Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。