論文の概要: Uncertainty-aware Attention Graph Neural Network for Defending
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2009.10235v1
- Date: Tue, 22 Sep 2020 00:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:41:06.832338
- Title: Uncertainty-aware Attention Graph Neural Network for Defending
Adversarial Attacks
- Title(参考訳): 敵攻撃防止のための不確実な注意グラフニューラルネットワーク
- Authors: Boyuan Feng, Yuke Wang, Zheng Wang, and Yufei Ding
- Abstract要約: 既存のグラフニューラルネットワーク(GNN)は予測のブラックボックスとして機能し、予測の不確実性を提供しない。
我々は、GNNに対する敵攻撃を防御する最初の体系的ソリューションであるUAGを提案する。
提案する防衛手法は,最先端のソリューションよりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 21.63854538768414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing popularity of graph-based learning, graph neural networks
(GNNs) emerge as the essential tool for gaining insights from graphs. However,
unlike the conventional CNNs that have been extensively explored and
exhaustively tested, people are still worrying about the GNNs' robustness under
the critical settings, such as financial services. The main reason is that
existing GNNs usually serve as a black-box in predicting and do not provide the
uncertainty on the predictions. On the other side, the recent advancement of
Bayesian deep learning on CNNs has demonstrated its success of quantifying and
explaining such uncertainties to fortify CNN models. Motivated by these
observations, we propose UAG, the first systematic solution to defend
adversarial attacks on GNNs through identifying and exploiting hierarchical
uncertainties in GNNs. UAG develops a Bayesian Uncertainty Technique (BUT) to
explicitly capture uncertainties in GNNs and further employs an
Uncertainty-aware Attention Technique (UAT) to defend adversarial attacks on
GNNs. Intensive experiments show that our proposed defense approach outperforms
the state-of-the-art solutions by a significant margin.
- Abstract(参考訳): グラフベースの学習の普及に伴い、グラフニューラルネットワーク(GNN)が、グラフから洞察を得るために不可欠なツールとして登場した。
しかし、これまで広く調査され、徹底的にテストされてきた従来のCNNとは異なり、人々は金融サービスなどのクリティカルセッティングの下でGNNの堅牢性に懸念を抱いている。
主な理由は、既存のGNNが予測においてブラックボックスとして機能し、予測の不確実性を提供しないからである。
一方、最近のCNNにおけるベイズ的深層学習の進歩は、CNNモデルを強化するための不確実性を定量化し、説明することに成功した。
本研究は,GNNの階層的不確実性を特定し,活用することによって,GNNに対する敵対的攻撃を防御する最初の体系的ソリューションであるUAGを提案する。
UAGは、GNNにおける不確実性を明示的に捉えるためにベイズ不確実性技術(BUT)を開発し、さらにGNNに対する敵の攻撃を防御するために不確実性認識注意技術(UAT)を使用している。
集中的な実験により,提案手法が最先端ソリューションを著しく上回っていることが示された。
関連論文リスト
- Explainable AI Security: Exploring Robustness of Graph Neural Networks to Adversarial Attacks [14.89001880258583]
グラフニューラルネットワーク(GNN)は非常に成功したが、最近の研究では、GNNは敵の攻撃に弱いことが示されている。
本稿では,グラフデータパターン,モデル固有因子,および敵対例の転送可能性を考慮することで,GNNの対角的ロバスト性について検討する。
この作業は、GNNの脆弱性を照らし、堅牢なGNNを設計するための多くの有望な道を開く。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。