論文の概要: Adversarial Robustness in Graph Neural Networks: A Hamiltonian Approach
- arxiv url: http://arxiv.org/abs/2310.06396v1
- Date: Tue, 10 Oct 2023 07:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 18:21:16.827904
- Title: Adversarial Robustness in Graph Neural Networks: A Hamiltonian Approach
- Title(参考訳): グラフニューラルネットワークにおける逆ロバスト性:ハミルトニアンアプローチ
- Authors: Kai Zhao, Qiyu Kang, Yang Song, Rui She, Sijie Wang, Wee Peng Tay
- Abstract要約: グラフニューラルネットワーク(GNN)は敵の摂動に弱い。
本稿では,多様なニューラルフローから派生したGNNについて検討する。
我々は、リアプノフの安定性は、その一般的な使用にもかかわらず、必ずしも敵の堅牢性を保証するとは限らないと論じる。
- 参考スコア(独自算出の注目度): 27.99849885813841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are vulnerable to adversarial perturbations,
including those that affect both node features and graph topology. This paper
investigates GNNs derived from diverse neural flows, concentrating on their
connection to various stability notions such as BIBO stability, Lyapunov
stability, structural stability, and conservative stability. We argue that
Lyapunov stability, despite its common use, does not necessarily ensure
adversarial robustness. Inspired by physics principles, we advocate for the use
of conservative Hamiltonian neural flows to construct GNNs that are robust to
adversarial attacks. The adversarial robustness of different neural flow GNNs
is empirically compared on several benchmark datasets under a variety of
adversarial attacks. Extensive numerical experiments demonstrate that GNNs
leveraging conservative Hamiltonian flows with Lyapunov stability substantially
improve robustness against adversarial perturbations. The implementation code
of experiments is available at
https://github.com/zknus/NeurIPS-2023-HANG-Robustness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノードの特徴とグラフトポロジの両方に影響を与えるものを含む、敵対的な摂動に対して脆弱である。
本稿では, BIBO安定性, リアプノフ安定性, 構造安定性, 保守安定性など, 様々な安定性概念との関連性に着目し, 多様なニューラルネットワークから得られるGNNについて検討する。
リアプノフの安定性は、その一般的な使用にもかかわらず、必ずしも敵の堅牢性を保証するとは限らない。
物理原理にインスパイアされた我々は、敵の攻撃に対して堅牢なGNNを構築するために保守的なハミルトンニューラルフローを使うことを提唱する。
異なるニューラルフローGNNの対向ロバスト性は、様々な対向攻撃の下でいくつかのベンチマークデータセットで経験的に比較される。
広範な数値実験により、リアプノフ安定性を持つ保守的ハミルトニアン流れを利用したgnnは、逆摂動に対するロバスト性を大幅に改善することが示されている。
実験の実装コードはhttps://github.com/zknus/NeurIPS-2023-HANG-Robustnessで公開されている。
関連論文リスト
- Robust Stable Spiking Neural Networks [45.84535743722043]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアの低エネルギー予算のため、ディープラーニングで人気を集めている。
SNNを敵の攻撃の脅威から守るために多くの研究がなされている。
本稿では非線形システムの安定性のレンズによるSNNの堅牢性を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-05-31T08:40:02Z) - Robust Graph Neural Networks via Unbiased Aggregation [18.681451049083407]
グラフニューラルネットワーク(GNN)の敵対的堅牢性は、強い適応攻撃によって発見されたセキュリティの誤った感覚のために疑問視されている。
私たちは、その堅牢性と限界を理解するために、統一されたロバストな見積もりポイントを提供する。
論文 参考訳(メタデータ) (2023-11-25T05:34:36Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Stable Neural ODE with Lyapunov-Stable Equilibrium Points for Defending
Against Adversarial Attacks [32.88499015927756]
我々は,Lyapunov-stable平衡点を持つ安定なニューラル・オードを提案し,敵対的攻撃(SODEF)を防御する。
我々は、SODEFの安定性に関する洞察を与える理論的な結果と、その安定性を確保するための正則化器の選択を提供する。
論文 参考訳(メタデータ) (2021-10-25T14:09:45Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Securing Deep Spiking Neural Networks against Adversarial Attacks
through Inherent Structural Parameters [11.665517294899724]
本稿では、内部構造パラメータによるスパイクニューラルネットワーク(SNN)のセキュリティ強化について検討する。
我々の知る限りでは、SNNにおける構造的パラメータが敵攻撃に対する堅牢性に与える影響を調査する最初の研究である。
論文 参考訳(メタデータ) (2020-12-09T21:09:03Z) - Batch Normalization Increases Adversarial Vulnerability and Decreases
Adversarial Transferability: A Non-Robust Feature Perspective [91.5105021619887]
バッチ正規化(BN)は、現代のディープニューラルネットワーク(DNN)で広く使われている。
BNは、対向ロバスト性を犠牲にしてモデル精度を高めることが観察された。
BNが主にロバスト特徴(RF)と非ロバスト特徴(NRF)の学習を好んでいるかどうかは不明である。
論文 参考訳(メタデータ) (2020-10-07T10:24:33Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。