論文の概要: Optimal Transport-Guided Adversarial Attacks on Graph Neural Network-Based Bot Detection
- arxiv url: http://arxiv.org/abs/2602.00318v1
- Date: Fri, 30 Jan 2026 21:13:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.115799
- Title: Optimal Transport-Guided Adversarial Attacks on Graph Neural Network-Based Bot Detection
- Title(参考訳): グラフニューラルネットワークによるボット検出における最適輸送誘導型敵攻撃
- Authors: Kunal Mukherjee, Zulfikar Alom, Tran Gia Bao Ngo, Cuneyt Gurcan Akcora, Murat Kantarcioglu,
- Abstract要約: 我々は,現実的な制約下でのエッジ編集とノード注入攻撃によるGNNベースのソーシャルボット検出の堅牢性を評価するために,BOCLOAKを導入した。
BOCLOAKは攻撃成功率を最大80.13%向上させ、リアル世界の制約下では99.80%のメモリを消費する。
最も重要なことは、BOCLOAKは、最適輸送が敵攻撃と現実世界のボット検出のギャップを埋めるための原則化された、原則化されたフレームワークを提供することを示している。
- 参考スコア(独自算出の注目度): 15.837407035335653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rise of bot accounts on social media poses significant risks to public discourse. To address this threat, modern bot detectors increasingly rely on Graph Neural Networks (GNNs). However, the effectiveness of these GNN-based detectors in real-world settings remains poorly understood. In practice, attackers continuously adapt their strategies as well as must operate under domain-specific and temporal constraints, which can fundamentally limit the applicability of existing attack methods. As a result, there is a critical need for robust GNN-based bot detection methods under realistic, constraint-aware attack scenarios. To address this gap, we introduce BOCLOAK to systematically evaluate the robustness of GNN-based social bot detection via both edge editing and node injection adversarial attacks under realistic constraints. BOCLOAK constructs a probability measure over spatio-temporal neighbor features and learns an optimal transport geometry that separates human and bot behaviors. It then decodes transport plans into sparse, plausible edge edits that evade detection while obeying real-world constraints. We evaluate BOCLOAK across three social bot datasets, five state-of-the-art bot detectors, three adversarial defenses, and compare it against four leading graph adversarial attack baselines. BOCLOAK achieves up to 80.13% higher attack success rates while using 99.80% less GPU memory under realistic real-world constraints. Most importantly, BOCLOAK shows that optimal transport provides a lightweight, principled framework for bridging the gap between adversarial attacks and real-world bot detection.
- Abstract(参考訳): ソーシャルメディア上のボットアカウントの増加は、公衆の会話に重大なリスクをもたらす。
この脅威に対処するため、現代のボット検出器はグラフニューラルネットワーク(GNN)にますます依存している。
しかし、実環境におけるこれらのGNNベースの検出器の有効性はよく分かっていない。
実際には、攻撃者は戦略を継続的に順応し、ドメイン固有の時間的制約の下で操作する必要があるため、既存の攻撃方法の適用性を根本的に制限することができる。
その結果、現実的で制約対応の攻撃シナリオ下では、堅牢なGNNベースのボット検出方法が不可欠である。
このギャップに対処するために,我々は,現実的な制約下でのエッジ編集とノード注入攻撃によるGNNベースのソーシャルボット検出の堅牢性を体系的に評価するBOCLOAKを導入する。
BOCLOAKは、時空間近傍の特徴に対する確率測度を構築し、人間とボットの振る舞いを分離する最適な輸送幾何学を学ぶ。
そして、トランスポートプランを、現実の制約に従わずに検出を回避できる、疎結合でプラウチブルなエッジ編集にデコードする。
BOCLOAKは3つのソーシャルボットデータセット、最先端のボット検出器5つ、敵防衛3つにまたがって評価し、4つの主要なグラフ敵攻撃ベースラインと比較した。
BOCLOAKは、現実の現実的な制約の下で99.80%のGPUメモリを使用しながら、攻撃成功率を最大80.13%向上させる。
最も重要なことは、BOCLOAKが最適なトランスポートは、敵攻撃と現実世界のボット検出のギャップを埋めるための軽量で原則化されたフレームワークを提供することを示している。
関連論文リスト
- Non-Intrusive Graph-Based Bot Detection for E-Commerce Using Inductive Graph Neural Networks [4.230025065044209]
悪意のあるボットは、データをスクラップし、在庫を盗み、詐欺行為を繰り返すことで、Eコマースプラットフォームへの脅威が増大する。
IPブラックリストやCAPTCHAベースの課題など、従来のボットの緩和技術は、ますます非効率あるいは侵入的になっている。
本研究は,ユーザセッションの振る舞いをグラフ表現を通じてモデル化するEコマースのための非侵襲的なグラフベースボット検出フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-30T05:21:32Z) - RoBCtrl: Attacking GNN-Based Social Bot Detectors via Reinforced Manipulation of Bots Control Interaction [51.46634975923564]
本稿では,ソーシャルボット制御攻撃(RoBCtrl)のための対向型マルチエージェント強化学習フレームワークを提案する。
具体的には、拡散モデルを用いて、既存のアカウントデータを小さな修正で再構築することで、高忠実度ボットアカウントを生成する。
次に,MARL(Multi-Agent Reinforcement Learning)法を用いて,ボットの逆動作をシミュレートする。
論文 参考訳(メタデータ) (2025-10-16T02:41:49Z) - Boosting Bot Detection via Heterophily-Aware Representation Learning and Prototype-Guided Cluster Discovery [16.548403922027248]
BotHPはグラフベースのボット検出器を強化するために設計された、生成的なグラフ自己監視学習フレームワークである。
ノードの共通性をキャプチャするためにグラフ対応エンコーダと、ノードの特異性を保存するためにグラフに依存しないエンコーダからなるデュアルエンコーダアーキテクチャを使用する。
グラフベースのボット検出器を一貫して強化し、検出性能を改善し、ラベル依存を緩和し、一般化能力を向上する。
論文 参考訳(メタデータ) (2025-06-01T12:44:53Z) - Verifying message-passing neural networks via topology-based bounds tightening [3.3267518043390205]
我々は、メッセージパッシングニューラルネットワーク(MPNN)のための堅牢な証明書を提供するための、計算学的に効果的なアプローチを開発する。
私たちの研究は混合整数最適化に基づいており、様々なサブプロブレムをエンコードしています。
ノード分類とグラフ分類の両方の問題を検証し、エッジの追加と削除の両方を行うトポロジ的攻撃について検討する。
論文 参考訳(メタデータ) (2024-02-21T17:05:27Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。