論文の概要: Location Leakage in Federated Signal Maps
- arxiv url: http://arxiv.org/abs/2112.03452v3
- Date: Sat, 6 Jan 2024 00:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 23:22:53.787936
- Title: Location Leakage in Federated Signal Maps
- Title(参考訳): フェデレーション信号マップにおける位置漏洩
- Authors: Evita Bakopoulou, Mengwei Yang, Jiang Zhang, Konstantinos Psounis,
Athina Markopoulou
- Abstract要約: 複数のモバイルデバイスで収集した測定値からセルラーネットワーク性能(信号マップ)を予測することの問題点を考察する。
i) フェデレーション学習は、ユーザがデバイスにトレーニングデータを保持しながら、協調的にモデルをトレーニングすることを可能にする。
我々は、FLに参加しているターゲットユーザーから更新を観測し、グラデーション(DLG)タイプの攻撃による深い漏洩を用いて位置情報を推測する、誠実だが正確なサーバを考える。
FLのチューニングを含むフェデレーション学習フレームワーク内でのメカニズムの再検討と設計により、位置のプライバシーを保護するために、この観測に基づいて構築する。
- 参考スコア(独自算出の注目度): 7.093808731951124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of predicting cellular network performance (signal
maps) from measurements collected by several mobile devices. We formulate the
problem within the online federated learning framework: (i) federated learning
(FL) enables users to collaboratively train a model, while keeping their
training data on their devices; (ii) measurements are collected as users move
around over time and are used for local training in an online fashion. We
consider an honest-but-curious server, who observes the updates from target
users participating in FL and infers their location using a deep leakage from
gradients (DLG) type of attack, originally developed to reconstruct training
data of DNN image classifiers. We make the key observation that a DLG attack,
applied to our setting, infers the average location of a batch of local data,
and can thus be used to reconstruct the target users' trajectory at a coarse
granularity. We build on this observation to protect location privacy, in our
setting, by revisiting and designing mechanisms within the federated learning
framework including: tuning the FL parameters for averaging, curating local
batches so as to mislead the DLG attacker, and aggregating across multiple
users with different trajectories. We evaluate the performance of our
algorithms through both analysis and simulation based on real-world mobile
datasets, and we show that they achieve a good privacy-utility tradeoff.
- Abstract(参考訳): 複数のモバイルデバイスで収集した測定値からセルラーネットワーク性能(信号マップ)を予測する問題を考える。
私たちは、オンラインフェデレーション学習フレームワーク内で問題を定式化します。
(i)フェデレーションラーニング(FL)により、ユーザーは、デバイスにトレーニングデータを保持しながら、協調的にモデルを訓練することができる。
(ii)ユーザが時間とともに動き回ると測定値が収集され、オンライン形式で地元のトレーニングに使用される。
我々は,flに参加しているターゲットユーザからの更新を監視し,dnn画像分類器のトレーニングデータを再構築するために開発された,勾配(dlg)タイプの攻撃からの深い漏洩を用いて位置を推測する,正直なサーバを考える。
我々は, DLG 攻撃が我々の設定に適用され, ローカルデータのバッチの平均位置を推定し, 粗い粒度でターゲットユーザの軌道を再構築することができることを重要視する。
本研究は,DLG攻撃者を誤解させるため,平均化のためのFLパラメータのチューニング,ローカルバッチのキュレート,異なる軌道で複数のユーザをまたがるアグリゲーションといった,フェデレート学習フレームワーク内でのメカニズムの再検討と設計によって,位置プライバシーを保護するために構築されている。
実世界のモバイルデータセットに基づく解析とシミュレーションによりアルゴリズムの性能を評価し,優れたプライバシー利用トレードオフを実現することを示す。
関連論文リスト
- Federated Learning under Attack: Improving Gradient Inversion for Batch of Images [1.5749416770494706]
フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
論文 参考訳(メタデータ) (2024-09-26T12:02:36Z) - Unsupervised Federated Optimization at the Edge: D2D-Enabled Learning without Labels [14.696896223432507]
Federated Learning (FL)は、分散機械学習(ML)の一般的なソリューションである
tt CF-CLは、明示的な(生データ)または暗黙的な(埋め込み)情報をデバイス間通信(D2D)を介して交換する、ローカルなデバイス連携を採用している。
論文 参考訳(メタデータ) (2024-04-15T15:17:38Z) - Incremental Semi-supervised Federated Learning for Health Inference via
Mobile Sensing [5.434366992553875]
我々は,段階的な半教師付きフェデレート学習アルゴリズムであるFedMobileを提案する。
インフルエンザ様症状認識のための実世界のモバイルセンシングデータセットを用いてFedMobileを評価した。
論文 参考訳(メタデータ) (2023-12-19T23:39:33Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - eFedDNN: Ensemble based Federated Deep Neural Networks for Trajectory
Mode Inference [7.008213336755055]
GPSデータセットにはユーザのプライベート情報が含まれており、多くのユーザがサードパーティとプライベート情報を共有できない。
この課題に対処するために、プライバシ保護機械学習技術であるフェデレートラーニング(FL)を使用します。
提案手法は,プライバシを損なうことなく,ユーザの移動様式を正確に識別できることを示す。
論文 参考訳(メタデータ) (2022-05-11T19:58:48Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - FedLoc: Federated Learning Framework for Data-Driven Cooperative
Localization and Location Data Processing [12.518673970373422]
データ駆動学習モデルに基づく協調的ローカライゼーションと位置データ処理について考察する。
我々はまず,フェデレート学習の文脈における最先端のアルゴリズムについて検討する。
本稿では,標準,新刊,未公開の各作品から要約した様々な実用事例を紹介する。
論文 参考訳(メタデータ) (2020-03-08T01:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。