論文の概要: When Crowdsensing Meets Federated Learning: Privacy-Preserving Mobile
Crowdsensing System
- arxiv url: http://arxiv.org/abs/2102.10109v1
- Date: Sat, 20 Feb 2021 15:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 18:07:53.987675
- Title: When Crowdsensing Meets Federated Learning: Privacy-Preserving Mobile
Crowdsensing System
- Title(参考訳): CrowdsensingとFederated Learning: プライバシー保護されたモバイルCrowdsensingシステム
- Authors: Bowen Zhao, Ximeng Liu, Wei-neng Chen
- Abstract要約: モバイルクラウドセンシング(MCS)は、スケーラビリティ、デプロイメントコストの低減、分散特性を備えた、新たなセンシングデータ収集パターンである。
従来のMCSシステムはプライバシーの懸念と公正な報酬分配に苦しんでいます。
本論文では、textscCrowdFLと呼ばれるプライバシー保護MCSシステムを提案する。
- 参考スコア(独自算出の注目度): 12.087658145293522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile crowdsensing (MCS) is an emerging sensing data collection pattern with
scalability, low deployment cost, and distributed characteristics. Traditional
MCS systems suffer from privacy concerns and fair reward distribution.
Moreover, existing privacy-preserving MCS solutions usually focus on the
privacy protection of data collection rather than that of data processing. To
tackle faced problems of MCS, in this paper, we integrate federated learning
(FL) into MCS and propose a privacy-preserving MCS system, called
\textsc{CrowdFL}. Specifically, in order to protect privacy, participants
locally process sensing data via federated learning and only upload encrypted
training models. Particularly, a privacy-preserving federated averaging
algorithm is proposed to average encrypted training models. To reduce
computation and communication overhead of restraining dropped participants,
discard and retransmission strategies are designed. Besides, a
privacy-preserving posted pricing incentive mechanism is designed, which tries
to break the dilemma of privacy protection and data evaluation. Theoretical
analysis and experimental evaluation on a practical MCS application demonstrate
the proposed \textsc{CrowdFL} can effectively protect participants privacy and
is feasible and efficient.
- Abstract(参考訳): モバイルクラウドセンシング(MCS)は、スケーラビリティ、デプロイメントコストの低減、分散特性を備えた、新たなセンシングデータ収集パターンである。
従来のMCSシステムはプライバシーの懸念と公正な報酬分配に苦しんでいます。
さらに、既存のプライバシー保護MCSソリューションは、通常、データ処理ではなく、データ収集のプライバシー保護に焦点を当てています。
本稿では,MLSの課題に対処するため,フェデレートラーニング(FL)をMCSに統合し,プライバシ保護型MCSシステムである「textsc{CrowdFL}」を提案する。
具体的には、プライバシーを保護するために、参加者は連合学習を通じてローカルにセンシングデータを処理し、暗号化されたトレーニングモデルのみをアップロードする。
特に,平均暗号化トレーニングモデルに対して,プライバシ保存型フェデレーション平均化アルゴリズムを提案する。
落下した参加者を抑える際の計算および通信オーバーヘッドを低減するため、廃棄・再送戦略を設計する。
さらに、プライバシー保護の投稿価格インセンティブメカニズムが設計されており、プライバシー保護とデータ評価のジレンマを打破しようとします。
実用MCSアプリケーションの理論的解析と実験的評価により,提案した‘textsc{CrowdFL}’は,参加者のプライバシを効果的に保護し,有効かつ効果的であることを示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.0]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management [23.847568516724937]
本稿では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いた新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを新たにデモします。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy
Protection [6.201275002179716]
本稿では,H(ide)" と "S(eek)" の2つのコアプロセスとして,匿名化のためのプライベートエンティティの隠蔽と非匿名化のためのプライベートエンティティの検索を行うHaSフレームワークを紹介する。
本研究では,HaSのプライバシー保護性能を定量的に評価するために,ブラックボックスモデルとホワイトボックスモデルの両方を提案する。
論文 参考訳(メタデータ) (2023-09-06T14:54:11Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。