論文の概要: Mitigating Cascading Effects in Large Adversarial Graph Environments
- arxiv url: http://arxiv.org/abs/2404.14418v1
- Date: Fri, 12 Apr 2024 20:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-28 11:16:37.569341
- Title: Mitigating Cascading Effects in Large Adversarial Graph Environments
- Title(参考訳): 大規模対向グラフ環境におけるカスケード効果の緩和
- Authors: James D. Cunningham, Conrad S. Tucker,
- Abstract要約: 社会の膨大なインフラは、電信グリッド、交通ネットワーク、ソーシャルネットワークなど、グラフ構造を用いてモデル化することができる。
それぞれのドメインは、電力グリッドに過負荷されたデバイスや、誤情報を含むソーシャルメディアポストのリーチなど、負の影響のカスケード拡散に影響を受けやすい。
本稿では,多ノード表現学習と対実データ拡張を用いたデータ駆動型深層学習手法を提案する。
我々は,提案手法が防衛戦略を識別できることを示す実験を通じて実証する。
- 参考スコア(独自算出の注目度): 1.6574413179773761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant amount of society's infrastructure can be modeled using graph structures, from electric and communication grids, to traffic networks, to social networks. Each of these domains are also susceptible to the cascading spread of negative impacts, whether this be overloaded devices in the power grid or the reach of a social media post containing misinformation. The potential harm of a cascade is compounded when considering a malicious attack by an adversary that is intended to maximize the cascading impact. However, by exploiting knowledge of the cascading dynamics, targets with the largest cascading impact can be preemptively prioritized for defense, and the damage an adversary can inflict can be mitigated. While game theory provides tools for finding an optimal preemptive defense strategy, existing methods struggle to scale to the context of large graph environments because of the combinatorial explosion of possible actions that occurs when the attacker and defender can each choose multiple targets in the graph simultaneously. The proposed method enables a data-driven deep learning approach that uses multi-node representation learning and counterfactual data augmentation to generalize to the full combinatorial action space by training on a variety of small restricted subsets of the action space. We demonstrate through experiments that the proposed method is capable of identifying defense strategies that are less exploitable than SOTA methods for large graphs, while still being able to produce strategies near the Nash equilibrium for small-scale scenarios for which it can be computed. Moreover, the proposed method demonstrates superior prediction accuracy on a validation set of unseen cascades compared to other deep learning approaches.
- Abstract(参考訳): 社会のインフラのかなりの部分は、電線や通信網、交通網、ソーシャルネットワークといったグラフ構造を用いてモデル化することができる。
それぞれのドメインは、電源グリッドに過負荷のデバイスをオーバーロードするか、誤情報を含むソーシャルメディアポストのリーチにせよ、負の影響のカスケード拡散にも影響を受けやすい。
カスケードの潜在的な害は、カスケードの影響を最大化することを意図した敵による悪意のある攻撃を考えると、複雑になる。
しかし、カスケード力学の知識を生かして、最大カスケード衝撃の標的を防御的に優先し、敵の損傷を軽減できる。
ゲーム理論は最適なプリエンプティブ・ディフェンス戦略を見つけるためのツールを提供する一方で、攻撃者とディフェンダーが同時にグラフ内の複数のターゲットを選択できる場合に起こりうるアクションの組合せ爆発により、既存の手法は大きなグラフ環境のコンテキストにスケールするのに苦労する。
提案手法は,多ノード表現学習と対実データ拡張を用いたデータ駆動深層学習により,動作空間の様々な制限されたサブセットをトレーニングすることにより,完全な組合せ行動空間に一般化することができる。
実験により,提案手法は大規模なグラフに対してSOTA法よりも有効でない防衛戦略を識別できる一方で,計算可能な小規模シナリオに対してナッシュ均衡付近で戦略を生成可能であることを示す。
さらに,提案手法は,他の深層学習手法と比較して,見えないカスケードの検証セットに対して優れた予測精度を示す。
関連論文リスト
- Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Talos: A More Effective and Efficient Adversarial Defense for GNN Models Based on the Global Homophily of Graphs [2.4866716181615467]
グラフニューラルネットワーク(GNN)モデルは、敵攻撃の影響を受けやすい。
そこで我々は,グラフの局所的ホモフィリーを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T08:08:01Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection [12.726403718158082]
ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
ある種の脆弱性は、グラフへの依存と疑わしいランキングによるものである。
ブラックボックス検出器を用いて、強化学習が効果的かつ解釈可能な攻撃ポリシーを学習できるように、依存関係をキャプチャする機能を設計する。
論文 参考訳(メタデータ) (2022-01-15T10:06:29Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。