論文の概要: Node-aware Bi-smoothing: Certified Robustness against Graph Injection
Attacks
- arxiv url: http://arxiv.org/abs/2312.03979v1
- Date: Thu, 7 Dec 2023 01:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:26:06.633751
- Title: Node-aware Bi-smoothing: Certified Robustness against Graph Injection
Attacks
- Title(参考訳): ノード対応バイスムーシング:グラフインジェクション攻撃に対するロバスト性認定
- Authors: Yuni Lai, Yulin Zhu, Bailin Pan, Kai Zhou
- Abstract要約: ディープグラフラーニング(DGL)は、さまざまな分野において重要なテクニックとして登場した。
近年の研究では、脱走や中毒攻撃に対する感受性など、DGLモデルの脆弱性が明らかにされている。
本稿では,GAAに対する一般ノード分類タスクにおいて,最も堅牢なアプローチであるノード認識バイスムーシングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.660584039688214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Graph Learning (DGL) has emerged as a crucial technique across various
domains. However, recent studies have exposed vulnerabilities in DGL models,
such as susceptibility to evasion and poisoning attacks. While empirical and
provable robustness techniques have been developed to defend against graph
modification attacks (GMAs), the problem of certified robustness against graph
injection attacks (GIAs) remains largely unexplored. To bridge this gap, we
introduce the node-aware bi-smoothing framework, which is the first certifiably
robust approach for general node classification tasks against GIAs. Notably,
the proposed node-aware bi-smoothing scheme is model-agnostic and is applicable
for both evasion and poisoning attacks. Through rigorous theoretical analysis,
we establish the certifiable conditions of our smoothing scheme. We also
explore the practical implications of our node-aware bi-smoothing schemes in
two contexts: as an empirical defense approach against real-world GIAs and in
the context of recommendation systems. Furthermore, we extend two
state-of-the-art certified robustness frameworks to address node injection
attacks and compare our approach against them. Extensive evaluations
demonstrate the effectiveness of our proposed certificates.
- Abstract(参考訳): ディープグラフラーニング(DGL)は、さまざまな分野において重要なテクニックとして登場した。
しかし、近年の研究では、回避や中毒攻撃に対する感受性などのDGLモデルの脆弱性が明らかにされている。
グラフ修正攻撃(GMAs)に対して実証的かつ証明可能なロバスト性技術が開発されているが、グラフインジェクション攻撃(GIAs)に対する認証ロバスト性の問題はほとんど解明されていない。
このギャップを埋めるために、我々は、GAAに対する一般的なノード分類タスクにおいて、最初の確実な堅牢なアプローチであるノード対応バイスムーシングフレームワークを導入する。
特に,提案手法はモデル非依存であり,回避攻撃と毒殺攻撃の両方に適用可能である。
厳密な理論解析により, 平滑化スキームの検証可能な条件を確立する。
また,実世界のgiasに対する実証的防御アプローチとレコメンデーションシステムのコンテキストという2つのコンテキストにおいて,ノード対応型バイスムーシングスキームの実用的意義についても検討した。
さらに、ノードインジェクション攻撃に対処するために、2つの最先端認証された堅牢性フレームワークを拡張し、それに対するアプローチを比較する。
大規模な評価は,提案した証明書の有効性を示す。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Homophily-Driven Sanitation View for Robust Graph Contrastive Learning [28.978770069310276]
構造化攻撃に対する教師なしグラフコントラスト学習(GCL)の対向的堅牢性について検討する。
本稿では, 相反学習と共同で学習可能な, ホモフィリ駆動型衛生観を統合した頑健なGCLフレームワークを提案する。
我々は,提案モデルであるGCHSの性能を評価するために,広範にわたる実験を行い,GCLに対する芸術的構造的攻撃の2つの状況について検討した。
論文 参考訳(メタデータ) (2023-07-24T06:41:59Z) - Let Graph be the Go Board: Gradient-free Node Injection Attack for Graph
Neural Networks via Reinforcement Learning [37.4570186471298]
そこで我々は,ブラックボックスノードインジェクション攻撃の問題を,潜在的に誤解を招くサロゲートモデルをトレーニングすることなく検討した。
被害者のモデルを直接クエリすることで、G2A2Cは極めて限られた攻撃予算で非常に悪意のあるノードを注入することを学ぶ。
提案したG2A2Cは,既存の攻撃者よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-19T19:37:22Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - SoK: Certified Robustness for Deep Neural Networks [13.10665264010575]
近年の研究では、ディープニューラルネットワーク(DNN)が敵の攻撃に弱いことが示されている。
本稿では,実証可能な堅牢なアプローチと関連する実践的および理論的意味を体系化する。
また、既存の堅牢性検証と異なるデータセットでのトレーニングアプローチに関する、最初の包括的なベンチマークも提供しています。
論文 参考訳(メタデータ) (2020-09-09T07:00:55Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。