論文の概要: Hide and Find: A Distributed Adversarial Attack on Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2603.07743v1
- Date: Sun, 08 Mar 2026 17:37:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.187259
- Title: Hide and Find: A Distributed Adversarial Attack on Federated Graph Learning
- Title(参考訳): Hide and Find: フェデレーショングラフ学習に対する分散型敵攻撃
- Authors: Jinshan Liu, Ken Li, Jiazhe Wei, Bin Shi, Bo Dong,
- Abstract要約: Federated Graph Learning(FedGL)は悪意のある攻撃に対して脆弱である。
既存の攻撃方法は、攻撃成功率の低いこと、高い計算コストに悩まされており、防御アルゴリズムによって容易に識別され、円滑化される。
我々は,新しい2段階の"Hide and Find"分散敵攻撃であるtextbfFedShiftを提案する。
- 参考スコア(独自算出の注目度): 16.98451635983304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Learning (FedGL) is vulnerable to malicious attacks, yet developing a truly effective and stealthy attack method remains a significant challenge. Existing attack methods suffer from low attack success rates, high computational costs, and are easily identified and smoothed by defense algorithms. To address these challenges, we propose \textbf{FedShift}, a novel two-stage "Hide and Find" distributed adversarial attack. In the first stage, before FedGL begins, we inject a learnable and hidden "shifter" into part of the training data, which subtly pushes poisoned graph representations toward a target class's decision boundary without crossing it, ensuring attack stealthiness during training. In the second stage, after FedGL is complete, we leverage the global model information and use the hidden shifter as an optimization starting point to efficiently find the adversarial perturbations. During the final attack, we aggregate these perturbations from multiple malicious clients to form the final effective adversarial sample and trigger the attack. Extensive experiments on six large-scale datasets demonstrate that our method achieves the highest attack effectiveness compared to existing advanced attack methods. In particular, our attack can effectively evade 3 mainstream robust federated learning defense algorithms and converges with a time cost reduction of over 90\%, highlighting its exceptional stealthiness, robustness, and efficiency.
- Abstract(参考訳): Federated Graph Learning(FedGL)は悪意のある攻撃に対して脆弱だが、真に効果的でステルス的な攻撃方法の開発は依然として大きな課題である。
既存の攻撃方法は、攻撃の成功率の低いこと、高い計算コストに悩まされ、防御アルゴリズムによって容易に識別され、円滑化される。
これらの課題に対処するために、新しい2段階の「Hide and Find」分散敵攻撃である「textbf{FedShift}」を提案する。
最初の段階では、FedGLが始まる前に学習可能で隠れた「シフター」をトレーニングデータの一部として注入します。
第二段階では、FedGLが完了した後、グローバルモデル情報を活用し、隠れシフト器を最適化開始点として使用し、敵の摂動を効率的に見つける。
最終攻撃の間、複数の悪意のあるクライアントからこれらの摂動を集約し、最終的な効果的な敵のサンプルを作成し、攻撃をトリガーします。
6つの大規模データセットに対する大規模な実験により,本手法は既存の高度な攻撃手法と比較して高い攻撃効果が得られた。
特に、我々の攻撃は、主要な3つの堅牢な学習防衛アルゴリズムを効果的に回避することができ、その例外的なステルス性、堅牢性、効率性を強調して、90%以上の時間コスト削減に収束する。
関連論文リスト
- Slot: Provenance-Driven APT Detection through Graph Reinforcement Learning [24.84110719035862]
先進的永続脅威(Advanced Persistent Threats、APT)は、長期にわたって検出されていない能力によって特徴づけられる高度なサイバー攻撃である。
本稿では,前駆グラフとグラフ強化学習に基づく高度なAPT検出手法であるSlotを提案する。
Slotの卓越した精度、効率、適応性、そしてAPT検出の堅牢性を示し、ほとんどのメトリクスは最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-10-23T14:28:32Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - URVFL: Undetectable Data Reconstruction Attack on Vertical Federated Learning [9.017014896207442]
既存の悪意のある攻撃は、基礎となるVFLトレーニングタスクを変化させ、受信した勾配と正直なトレーニングで受け取った勾配を比較することで容易に検出できる。
我々は,電流検出機構を回避する新しい攻撃戦略であるURVFLを開発する。
包括的実験により、URVFLは既存の攻撃を著しく上回り、悪意のある攻撃に対するSOTA検出方法を回避することに成功した。
論文 参考訳(メタデータ) (2024-04-30T14:19:06Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Analysis and Extensions of Adversarial Training for Video Classification [0.0]
ビデオに対して最適な攻撃を生成するには、特にステップサイズにおいて、攻撃パラメータを慎重に調整する必要があることを示す。
本稿では,攻撃予算の変動による攻撃に対する3つの防御策を提案する。
UCF101データセットの実験は、提案手法が複数の攻撃タイプに対する対角的堅牢性を向上させることを示した。
論文 参考訳(メタデータ) (2022-06-16T06:49:01Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Adversarial Attacks and Detection on Reinforcement Learning-Based
Interactive Recommender Systems [47.70973322193384]
敵の攻撃は、早期にそれらを検出する上で大きな課題となる。
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける攻撃非依存の検出を提案する。
まず, 多様な分布を示すために敵の例を作成し, 潜在的な攻撃を検知して推薦システムを強化した。
論文 参考訳(メタデータ) (2020-06-14T15:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。