論文の概要: Robust Graph Neural Networks via Unbiased Aggregation
- arxiv url: http://arxiv.org/abs/2311.14934v1
- Date: Sat, 25 Nov 2023 05:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:43:33.263962
- Title: Robust Graph Neural Networks via Unbiased Aggregation
- Title(参考訳): 無バイアスアグリゲーションによるロバストグラフニューラルネットワーク
- Authors: Ruiqi Feng, Zhichao Hou, Tyler Derr, Xiaorui Liu
- Abstract要約: グラフニューラルネットワーク(GNN)の敵対的堅牢性は、強い適応攻撃によって発見されたセキュリティの誤った感覚のために疑問視されている。
私たちは、その堅牢性と限界を理解するために、統一されたロバストな見積もりポイントを提供する。
- 参考スコア(独自算出の注目度): 20.40814320483077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adversarial robustness of Graph Neural Networks (GNNs) has been
questioned due to the false sense of security uncovered by strong adaptive
attacks despite the existence of numerous defenses. In this work, we delve into
the robustness analysis of representative robust GNNs and provide a unified
robust estimation point of view to understand their robustness and limitations.
Our novel analysis of estimation bias motivates the design of a robust and
unbiased graph signal estimator. We then develop an efficient Quasi-Newton
iterative reweighted least squares algorithm to solve the estimation problem,
which unfolds as robust unbiased aggregation layers in GNNs with a theoretical
convergence guarantee. Our comprehensive experiments confirm the strong
robustness of our proposed model, and the ablation study provides a deep
understanding of its advantages.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の敵対的堅牢性は、多数の防御が存在するにもかかわらず、強力な適応攻撃によって発見されたセキュリティの誤った感覚によって疑問視されている。
本研究では,代表的ロバストGNNのロバスト性解析を探求し,そのロバスト性と制限を理解するために,統一的ロバスト推定視点を提供する。
推定バイアスの新しい解析は、ロバストで偏りのないグラフ信号推定器の設計を動機付ける。
そこで我々は,理論収束保証付きGNNにおける頑健な非バイアス集約層として展開する推定問題を解くために,効率的な準ニュートン反復最小二乗アルゴリズムを開発した。
包括的実験により,提案モデルの強靭性が確認され,アブレーション研究は,その利点を深く理解する。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Explainable AI Security: Exploring Robustness of Graph Neural Networks to Adversarial Attacks [14.89001880258583]
グラフニューラルネットワーク(GNN)は非常に成功したが、最近の研究では、GNNは敵の攻撃に弱いことが示されている。
本稿では,グラフデータパターン,モデル固有因子,および敵対例の転送可能性を考慮することで,GNNの対角的ロバスト性について検討する。
この作業は、GNNの脆弱性を照らし、堅牢なGNNを設計するための多くの有望な道を開く。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Adversarial Robustness in Graph Neural Networks: A Hamiltonian Approach [27.99849885813841]
グラフニューラルネットワーク(GNN)は敵の摂動に弱い。
本稿では,多様なニューラルフローから派生したGNNについて検討する。
我々は、リアプノフの安定性は、その一般的な使用にもかかわらず、必ずしも敵の堅牢性を保証するとは限らないと論じる。
論文 参考訳(メタデータ) (2023-10-10T07:59:23Z) - Can Directed Graph Neural Networks be Adversarially Robust? [26.376780541893154]
本研究では,グラフニューラルネットワーク(GNN)の堅牢性とレジリエンスを高めるために,有向グラフがもたらす深い信頼感を活用することを目的とする。
我々は,新しい,現実的なグラフアタック設定を導入し,プラグイン層として革新的で普遍的で効率的なメッセージパッシングフレームワークを提案する。
このフレームワークはクリーンな精度と最先端の堅牢なパフォーマンスに優れており、転送攻撃と適応攻撃の両方に対して優れた防御を提供する。
論文 参考訳(メタデータ) (2023-06-03T04:56:04Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Recent Advances in Understanding Adversarial Robustness of Deep Neural
Networks [15.217367754000913]
敵の例に抵抗する高い堅牢性を持つモデルを得ることがますます重要である。
我々は、敵の攻撃と堅牢性について、予備的な定義を与える。
我々は、頻繁に使用されるベンチマークについて研究し、理論的に証明された敵の堅牢性の境界について言及する。
論文 参考訳(メタデータ) (2020-11-03T07:42:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。