論文の概要: Remote Rowhammer Attack using Adversarial Observations on Federated Learning Clients
- arxiv url: http://arxiv.org/abs/2505.06335v1
- Date: Fri, 09 May 2025 17:27:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.795329
- Title: Remote Rowhammer Attack using Adversarial Observations on Federated Learning Clients
- Title(参考訳): フェデレートラーニングクライアント上での逆観測による遠隔ラウハマー攻撃
- Authors: Jinsheng Yuan, Yuhang Hao, Weisi Guo, Yun Wu, Chongyan Gu,
- Abstract要約: フェデレートラーニング(FL)は、多数の並列エージェント間で同時グローバルラーニングの可能性を秘めている。
中心となるのは、FLがスパース勾配更新とリモートダイレクトメモリアクセスを中央サーバで実行する機能である。
ここでは、サーバ内の頻繁なメモリ更新につながる特定のクライアントを攻撃することにより、サーバメモリに対するローハンマー攻撃をリモートで開始できることを示す。
- 参考スコア(独自算出の注目度): 7.042422507429461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has the potential for simultaneous global learning amongst a large number of parallel agents, enabling emerging AI such as LLMs to be trained across demographically diverse data. Central to this being efficient is the ability for FL to perform sparse gradient updates and remote direct memory access at the central server. Most of the research in FL security focuses on protecting data privacy at the edge client or in the communication channels between the client and server. Client-facing attacks on the server are less well investigated as the assumption is that a large collective of clients offer resilience. Here, we show that by attacking certain clients that lead to a high frequency repetitive memory update in the server, we can remote initiate a rowhammer attack on the server memory. For the first time, we do not need backdoor access to the server, and a reinforcement learning (RL) attacker can learn how to maximize server repetitive memory updates by manipulating the client's sensor observation. The consequence of the remote rowhammer attack is that we are able to achieve bit flips, which can corrupt the server memory. We demonstrate the feasibility of our attack using a large-scale FL automatic speech recognition (ASR) systems with sparse updates, our adversarial attacking agent can achieve around 70\% repeated update rate (RUR) in the targeted server model, effectively inducing bit flips on server DRAM. The security implications are that can cause disruptions to learning or may inadvertently cause elevated privilege. This paves the way for further research on practical mitigation strategies in FL and hardware design.
- Abstract(参考訳): フェデレートラーニング(FL)は、多数の並列エージェント間の同時グローバルラーニングの可能性を秘めており、LLMのような新興AIを、人口統計学的に多様なデータにわたってトレーニングすることができる。
この効率性の中心は、FLがスパース勾配更新とリモートダイレクトメモリアクセスを中央サーバで実行可能にすることである。
FLセキュリティの研究の大部分は、エッジクライアントやクライアントとサーバ間の通信チャネルにおけるデータのプライバシ保護に重点を置いている。
サーバに対するクライアント側の攻撃は、クライアントの大規模な集団がレジリエンスを提供するという仮定から、あまりよく調査されていない。
ここでは、サーバ内の頻繁なメモリ更新につながる特定のクライアントを攻撃することにより、サーバメモリに対するローハンマー攻撃をリモートで開始できることを示す。
サーバへのバックドアアクセスを初めて必要とせず、RL攻撃者は、クライアントのセンサ観測を操作することで、サーバの繰り返しメモリ更新を最大化する方法を学ぶことができる。
リモートのローハンマー攻撃の結果、ビットフリップを達成でき、サーバメモリを破損させる可能性がある。
本稿では,大規模FL自動音声認識(ASR)システムによる攻撃の可能性を示すとともに,サーバDRAMのビットフリップを効果的に誘導し,サーバモデルで70倍の繰り返し更新率(RUR)を達成できることを示す。
セキュリティ上の影響は、学習に混乱を引き起こしたり、必然的に特権の上昇を引き起こす可能性がある。
このことは、FLとハードウェア設計における実用的な緩和戦略のさらなる研究の道を開くものである。
関連論文リスト
- SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning (Full Version) [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Jamming Attacks on Federated Learning in Wireless Networks [3.6582851384058594]
フェデレートラーニング(FL)は、クライアントグループが協力してサーバでグローバルモデルをトレーニングできるように、分散学習環境を提供する。
本稿では,無線ネットワーク上で実行されたFLプロセスに障害を与えるため,空対空ジャミング攻撃の起動方法について検討する。
論文 参考訳(メタデータ) (2022-01-13T19:00:52Z) - Efficient passive membership inference attack in federated learning [12.878319040684211]
クロスデバイス・フェデレーション・ラーニング(FL)では、モバイルなどのクライアントがサーバと連携してグローバルな機械学習モデルをトレーニングし、データをローカルに保持する。
最近の研究によると、クライアントのプライベート情報は、クライアントとサーバの間で交換されたメッセージを盗聴する相手に開示することができる。
我々は、既存の手法よりもはるかに少ない電力とメモリを必要とする新しいパッシブ推論攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-31T08:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。