論文の概要: Attacking Graph Neural Networks with Bit Flips: Weisfeiler and Lehman Go Indifferent
- arxiv url: http://arxiv.org/abs/2311.01205v2
- Date: Fri, 16 Aug 2024 09:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 20:55:33.021884
- Title: Attacking Graph Neural Networks with Bit Flips: Weisfeiler and Lehman Go Indifferent
- Title(参考訳): ビットフリップによるグラフニューラルネットワークの攻撃: Weisfeiler と Lehman は無関心に
- Authors: Lorenz Kummer, Samir Moustafa, Nils N. Kriege, Wilfried N. Gansterer,
- Abstract要約: グラフニューラルネットワークに特化して設計された最初のビットフリップ攻撃を提案する。
我々の攻撃は、量子化されたメッセージパッシングニューラルネットワークにおける学習可能な近隣アグリゲーション機能をターゲットにしている。
この結果から,特定のグラフニューラルネットワークアーキテクチャに特有の数学的特性を利用すると,その脆弱性がビットフリップ攻撃によって著しく増大する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior attacks on graph neural networks have mostly focused on graph poisoning and evasion, neglecting the network's weights and biases. Traditional weight-based fault injection attacks, such as bit flip attacks used for convolutional neural networks, do not consider the unique properties of graph neural networks. We propose the Injectivity Bit Flip Attack, the first bit flip attack designed specifically for graph neural networks. Our attack targets the learnable neighborhood aggregation functions in quantized message passing neural networks, degrading their ability to distinguish graph structures and losing the expressivity of the Weisfeiler-Lehman test. Our findings suggest that exploiting mathematical properties specific to certain graph neural network architectures can significantly increase their vulnerability to bit flip attacks. Injectivity Bit Flip Attacks can degrade the maximal expressive Graph Isomorphism Networks trained on various graph property prediction datasets to random output by flipping only a small fraction of the network's bits, demonstrating its higher destructive power compared to a bit flip attack transferred from convolutional neural networks. Our attack is transparent and motivated by theoretical insights which are confirmed by extensive empirical results.
- Abstract(参考訳): グラフニューラルネットワークに対する以前の攻撃は、主にグラフ中毒と回避に焦点を当てており、ネットワークの重みとバイアスを無視している。
畳み込みニューラルネットワークで使用されるビットフリップ攻撃のような従来の重みに基づく障害注入攻撃は、グラフニューラルネットワークのユニークな特性を考慮していない。
本稿では,グラフニューラルネットワークに特化して設計された最初のビットフリップ攻撃であるインジェクティビティビットフリップ攻撃を提案する。
我々の攻撃は、量子化されたメッセージパッシングニューラルネットワークにおける学習可能な近傍アグリゲーション関数を目標とし、グラフ構造を識別する能力を低下させ、Weisfeiler-Lehmanテストの表現力を失う。
この結果から,特定のグラフニューラルネットワークアーキテクチャに特有の数学的特性を利用すると,その脆弱性がビットフリップ攻撃によって著しく増大する可能性が示唆された。
インジェクティビティ ビットフリップ攻撃は、様々なグラフ特性予測データセットでトレーニングされた最大表現型グラフ同型ネットワークを、ネットワークのビットのごく一部を反転させることでランダムな出力に分解し、畳み込みニューラルネットワークから転送されたビットフリップ攻撃よりも高い破壊力を示す。
我々の攻撃は、広範な経験的結果によって確認される理論的な洞察によって透明で動機づけられている。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - On The Relationship Between Universal Adversarial Attacks And Sparse
Representations [38.43938212884298]
敵攻撃とスパース表現の関連性を示す。
ニューラルネットワークに対する一般的な攻撃は、入力画像のスパース表現に対する攻撃として表現することができる。
論文 参考訳(メタデータ) (2023-11-14T16:00:29Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Black-box adversarial attacks using Evolution Strategies [3.093890460224435]
画像分類タスクに対するブラックボックス対向攻撃の生成について検討する。
その結果、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムによって簡単に騙されることがわかった。
一部のブラックボックス最適化アルゴリズムは、攻撃成功率と効率の両面で、よりハードな設定で優れている。
論文 参考訳(メタデータ) (2021-04-30T15:33:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Improved Gradient based Adversarial Attacks for Quantized Networks [15.686134908061995]
量子化されたネットワークは、勾配が消える問題に悩まされ、頑健さの偽の感覚を示す。
トレーニングネットワークにおける信号伝搬の低下に起因する勾配の低減により,この問題を緩和するための簡単な温度スケーリング手法を導入する。
論文 参考訳(メタデータ) (2020-03-30T14:34:08Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。