論文の概要: Location Leakage in Federated Signal Maps
- arxiv url: http://arxiv.org/abs/2112.03452v1
- Date: Tue, 7 Dec 2021 02:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 16:04:16.101506
- Title: Location Leakage in Federated Signal Maps
- Title(参考訳): フェデレーション信号マップにおける位置漏洩
- Authors: Evita Bakopoulou, Jiang Zhang, Justin Ley, Konstantinos Psounis,
Athina Markopoulou
- Abstract要約: オンラインフェデレーション・ラーニング(FL)は、ユーザがデバイスにトレーニングデータを保持しながら、協力的にモデルをトレーニングすることを可能にする。
我々は、FLに参加しているターゲットユーザーから更新を観測し、グラデーション型攻撃(DLG)からの深い漏洩を用いて位置情報を推測する、誠実だが正確なサーバを考える。
我々は、フェデレーテッド平均化に固有のグラデーションの平均化によって、プライバシー保護の適度なレベルが既に提供されていることを示す。
- 参考スコア(独自算出の注目度): 13.884423334588623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of predicting cellular network performance (signal
maps) from measurements collected by several mobile devices. We formulate the
problem within the online federated learning framework: (i) federated learning
(FL) enables users to collaboratively train a model, while keeping their
training data on their devices; (ii) measurements are collected as users move
around over time and are used for local training in an online fashion. We
consider an honest-but-curious server, who observes the updates from target
users participating in FL and infers their location using a deep leakage from
gradients (DLG) type of attack, originally developed to reconstruct training
data of DNN image classifiers. We make the key observation that a DLG attack,
applied to our setting, infers the average location of a batch of local data,
and can thus be used to reconstruct the target users' trajectory at a coarse
granularity. We show that a moderate level of privacy protection is already
offered by the averaging of gradients, which is inherent to Federated
Averaging. Furthermore, we propose an algorithm that devices can apply locally
to curate the batches used for local updates, so as to effectively protect
their location privacy without hurting utility. Finally, we show that the
effect of multiple users participating in FL depends on the similarity of their
trajectories. To the best of our knowledge, this is the first study of DLG
attacks in the setting of FL from crowdsourced spatio-temporal data.
- Abstract(参考訳): 複数のモバイルデバイスで収集した測定値からセルラーネットワーク性能(信号マップ)を予測する問題を考える。
私たちは、オンラインフェデレーション学習フレームワーク内で問題を定式化します。
(i)フェデレーションラーニング(FL)により、ユーザーは、デバイスにトレーニングデータを保持しながら、協調的にモデルを訓練することができる。
(ii)ユーザが時間とともに動き回ると測定値が収集され、オンライン形式で地元のトレーニングに使用される。
我々は,flに参加しているターゲットユーザからの更新を監視し,dnn画像分類器のトレーニングデータを再構築するために開発された,勾配(dlg)タイプの攻撃からの深い漏洩を用いて位置を推測する,正直なサーバを考える。
我々は, DLG 攻撃が我々の設定に適用され, ローカルデータのバッチの平均位置を推定し, 粗い粒度でターゲットユーザの軌道を再構築することができることを重要視する。
プライバシー保護の適度なレベルはすでに、Federated Averagingに固有のグラデーションの平均化によって提供されています。
さらに、ローカル更新に使用するバッチをローカルに適用して、有効性を損なうことなく、位置情報のプライバシーを効果的に保護するアルゴリズムを提案する。
最後に、FLに参加する複数のユーザの影響は、その軌道の類似性に依存することを示す。
我々の知る限り、これはクラウドソーシングされた時空間データからFLの設定におけるDLG攻撃の最初の研究である。
関連論文リスト
- Federated Learning under Attack: Improving Gradient Inversion for Batch of Images [1.5749416770494706]
フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
論文 参考訳(メタデータ) (2024-09-26T12:02:36Z) - Unsupervised Federated Optimization at the Edge: D2D-Enabled Learning without Labels [14.696896223432507]
Federated Learning (FL)は、分散機械学習(ML)の一般的なソリューションである
tt CF-CLは、明示的な(生データ)または暗黙的な(埋め込み)情報をデバイス間通信(D2D)を介して交換する、ローカルなデバイス連携を採用している。
論文 参考訳(メタデータ) (2024-04-15T15:17:38Z) - Incremental Semi-supervised Federated Learning for Health Inference via
Mobile Sensing [5.434366992553875]
我々は,段階的な半教師付きフェデレート学習アルゴリズムであるFedMobileを提案する。
インフルエンザ様症状認識のための実世界のモバイルセンシングデータセットを用いてFedMobileを評価した。
論文 参考訳(メタデータ) (2023-12-19T23:39:33Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - eFedDNN: Ensemble based Federated Deep Neural Networks for Trajectory
Mode Inference [7.008213336755055]
GPSデータセットにはユーザのプライベート情報が含まれており、多くのユーザがサードパーティとプライベート情報を共有できない。
この課題に対処するために、プライバシ保護機械学習技術であるフェデレートラーニング(FL)を使用します。
提案手法は,プライバシを損なうことなく,ユーザの移動様式を正確に識別できることを示す。
論文 参考訳(メタデータ) (2022-05-11T19:58:48Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - FedLoc: Federated Learning Framework for Data-Driven Cooperative
Localization and Location Data Processing [12.518673970373422]
データ駆動学習モデルに基づく協調的ローカライゼーションと位置データ処理について考察する。
我々はまず,フェデレート学習の文脈における最先端のアルゴリズムについて検討する。
本稿では,標準,新刊,未公開の各作品から要約した様々な実用事例を紹介する。
論文 参考訳(メタデータ) (2020-03-08T01:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。