論文の概要: Uncertainty-aware Attention Graph Neural Network for Defending
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2009.10235v1
- Date: Tue, 22 Sep 2020 00:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:41:06.832338
- Title: Uncertainty-aware Attention Graph Neural Network for Defending
Adversarial Attacks
- Title(参考訳): 敵攻撃防止のための不確実な注意グラフニューラルネットワーク
- Authors: Boyuan Feng, Yuke Wang, Zheng Wang, and Yufei Ding
- Abstract要約: 既存のグラフニューラルネットワーク(GNN)は予測のブラックボックスとして機能し、予測の不確実性を提供しない。
我々は、GNNに対する敵攻撃を防御する最初の体系的ソリューションであるUAGを提案する。
提案する防衛手法は,最先端のソリューションよりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 21.63854538768414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing popularity of graph-based learning, graph neural networks
(GNNs) emerge as the essential tool for gaining insights from graphs. However,
unlike the conventional CNNs that have been extensively explored and
exhaustively tested, people are still worrying about the GNNs' robustness under
the critical settings, such as financial services. The main reason is that
existing GNNs usually serve as a black-box in predicting and do not provide the
uncertainty on the predictions. On the other side, the recent advancement of
Bayesian deep learning on CNNs has demonstrated its success of quantifying and
explaining such uncertainties to fortify CNN models. Motivated by these
observations, we propose UAG, the first systematic solution to defend
adversarial attacks on GNNs through identifying and exploiting hierarchical
uncertainties in GNNs. UAG develops a Bayesian Uncertainty Technique (BUT) to
explicitly capture uncertainties in GNNs and further employs an
Uncertainty-aware Attention Technique (UAT) to defend adversarial attacks on
GNNs. Intensive experiments show that our proposed defense approach outperforms
the state-of-the-art solutions by a significant margin.
- Abstract(参考訳): グラフベースの学習の普及に伴い、グラフニューラルネットワーク(GNN)が、グラフから洞察を得るために不可欠なツールとして登場した。
しかし、これまで広く調査され、徹底的にテストされてきた従来のCNNとは異なり、人々は金融サービスなどのクリティカルセッティングの下でGNNの堅牢性に懸念を抱いている。
主な理由は、既存のGNNが予測においてブラックボックスとして機能し、予測の不確実性を提供しないからである。
一方、最近のCNNにおけるベイズ的深層学習の進歩は、CNNモデルを強化するための不確実性を定量化し、説明することに成功した。
本研究は,GNNの階層的不確実性を特定し,活用することによって,GNNに対する敵対的攻撃を防御する最初の体系的ソリューションであるUAGを提案する。
UAGは、GNNにおける不確実性を明示的に捉えるためにベイズ不確実性技術(BUT)を開発し、さらにGNNに対する敵の攻撃を防御するために不確実性認識注意技術(UAT)を使用している。
集中的な実験により,提案手法が最先端ソリューションを著しく上回っていることが示された。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Can Directed Graph Neural Networks be Adversarially Robust? [26.376780541893154]
本研究では,グラフニューラルネットワーク(GNN)の堅牢性とレジリエンスを高めるために,有向グラフがもたらす深い信頼感を活用することを目的とする。
我々は,新しい,現実的なグラフアタック設定を導入し,プラグイン層として革新的で普遍的で効率的なメッセージパッシングフレームワークを提案する。
このフレームワークはクリーンな精度と最先端の堅牢なパフォーマンスに優れており、転送攻撃と適応攻撃の両方に対して優れた防御を提供する。
論文 参考訳(メタデータ) (2023-06-03T04:56:04Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。