論文の概要: FLARE: A Wireless Side-Channel Fingerprinting Attack on Federated Learning
- arxiv url: http://arxiv.org/abs/2512.10296v1
- Date: Thu, 11 Dec 2025 05:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.200475
- Title: FLARE: A Wireless Side-Channel Fingerprinting Attack on Federated Learning
- Title(参考訳): FLARE:フェデレートラーニングにワイヤレスのサイドチャネルフィンガープリント攻撃
- Authors: Md Nahid Hasan Shuvo, Moinul Hossain, Anik Mallik, Jeffrey Twigg, Fikadu Dagefu,
- Abstract要約: Federated Learning (FL)は、データとユーザのプライバシを保護しながら、分散デバイス間の協調的なモデルトレーニングを可能にする。
本稿では、FLクライアントからの暗号化された無線トラフィックのフローレベルおよびパケットレベル統計を利用して、そのディープラーニングモデルアーキテクチャを推論する、新しいサイドチャネルフィンガープリント攻撃を提案する。
FL Architecture Reconnaissanceをベースとした指紋認証フレームワークであるFLAREと命名した。
- 参考スコア(独自算出の注目度): 1.4680035572775534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training across distributed devices while safeguarding data and user privacy. However, FL remains susceptible to privacy threats that can compromise data via direct means. That said, indirectly compromising the confidentiality of the FL model architecture (e.g., a convolutional neural network (CNN) or a recurrent neural network (RNN)) on a client device by an outsider remains unexplored. If leaked, this information can enable next-level attacks tailored to the architecture. This paper proposes a novel side-channel fingerprinting attack, leveraging flow-level and packet-level statistics of encrypted wireless traffic from an FL client to infer its deep learning model architecture. We name it FLARE, a fingerprinting framework based on FL Architecture REconnaissance. Evaluation across various CNN and RNN variants-including pre-trained and custom models trained over IEEE 802.11 Wi-Fi-shows that FLARE achieves over 98% F1-score in closed-world and up to 91% in open-world scenarios. These results reveal that CNN and RNN models leak distinguishable traffic patterns, enabling architecture fingerprinting even under realistic FL settings with hardware, software, and data heterogeneity. To our knowledge, this is the first work to fingerprint FL model architectures by sniffing encrypted wireless traffic, exposing a critical side-channel vulnerability in current FL systems.
- Abstract(参考訳): Federated Learning (FL)は、データとユーザのプライバシを保護しながら、分散デバイス間の協調的なモデルトレーニングを可能にする。
しかし、FLは直接的な手段によってデータを侵害する可能性のあるプライバシー上の脅威の影響を受け続けている。
とは言っても、外部者によるクライアントデバイス上のFLモデルアーキテクチャ(例えば、畳み込みニューラルネットワーク(CNN)やリカレントニューラルネットワーク(RNN))の機密性を間接的に妥協することは、まだ探索されていない。
リークされた場合、この情報はアーキテクチャに合わせて、次のレベルの攻撃を可能にする。
本稿では、FLクライアントからの暗号化された無線トラフィックのフローレベルおよびパケットレベル統計を利用して、そのディープラーニングモデルアーキテクチャを推論する、新しいサイドチャネルフィンガープリント攻撃を提案する。
FL Architecture Reconnaissanceをベースとした指紋認証フレームワークであるFLAREと命名した。
IEEE 802.11 Wi-Fiショーでトレーニングされたトレーニング済みおよびカスタムモデルを含む様々なCNNおよびRNNの派生モデルに対する評価では、FLAREはクローズドワールドでは98%F1スコア、オープンワールドでは91%以上を達成した。
これらの結果から,CNNおよびRNNモデルは,ハードウェア,ソフトウェア,データ不均一性による現実的なFL設定下であっても,アーキテクチャのフィンガープリントを可能にするため,識別可能なトラフィックパターンをリークすることがわかった。
我々の知る限り、現在のFLシステムにおいて、暗号化された無線トラフィックを嗅ぎ、重要なサイドチャネル脆弱性を明らかにすることで、FLモデルアーキテクチャをフィンガープリントする最初の試みである。
関連論文リスト
- Byzantine Outside, Curious Inside: Reconstructing Data Through Malicious Updates [36.2911560725828]
フェデレートラーニング(FL)は、生データを共有せずに分散機械学習を可能にする。
一般に採用されているFLプロトコルでは、プライバシリークが可能である。
FLに新たな脅威モデルを導入し、悪意ある好奇心をそそるクライアントと名づけた。
論文 参考訳(メタデータ) (2025-06-13T02:23:41Z) - Fingerprinting Deep Learning Models via Network Traffic Patterns in Federated Learning [1.5193212081459277]
フェデレートラーニング(FL)は、分散機械学習パラダイムとしてますます採用されている。
FLは、ネットワークトラフィック分析を通じて間接的なプライバシー侵害を受けやすい。
本稿では,FL環境に展開する深層学習モデルのフィンガープリントの実現可能性について,ネットワーク層トラフィック情報の解析により検討する。
論文 参考訳(メタデータ) (2025-06-02T21:37:20Z) - BlindFL: Segmented Federated Learning with Fully Homomorphic Encryption [0.0]
Federated Learning(FL)は、エッジデバイス上でAIモデルをトレーニングおよびデプロイするために使用される、プライバシ保護のエッジ・ツー・クラウド技術である。
BlindFLは、クライアントがローカルモデル更新のサブセットを暗号化して送信するグローバルモデルアグリゲーションのためのフレームワークである。
BlindFLは、単一キーFHEベースのFLスキームの最初のクライアントサイドモデル中毒攻撃を著しく阻害する。
論文 参考訳(メタデータ) (2025-01-20T18:42:21Z) - FedConv: Enhancing Convolutional Neural Networks for Handling Data
Heterogeneity in Federated Learning [34.37155882617201]
フェデレーション・ラーニング(FL)は機械学習における新たなパラダイムであり、共有モデルは複数のデバイスからのデータを使って協調的に学習される。
活性化関数や正規化層などの異なるアーキテクチャ要素が異種FLの性能に与える影響を系統的に検討する。
以上の結果から,戦略的アーキテクチャ変更により,純粋なCNNは,VTと一致するか,あるいは超えるようなロバスト性を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-06T17:57:50Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Jamming Attacks on Federated Learning in Wireless Networks [3.6582851384058594]
フェデレートラーニング(FL)は、クライアントグループが協力してサーバでグローバルモデルをトレーニングできるように、分散学習環境を提供する。
本稿では,無線ネットワーク上で実行されたFLプロセスに障害を与えるため,空対空ジャミング攻撃の起動方法について検討する。
論文 参考訳(メタデータ) (2022-01-13T19:00:52Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。