論文の概要: Federated Crowdsensing: Framework and Challenges
- arxiv url: http://arxiv.org/abs/2011.03208v1
- Date: Fri, 6 Nov 2020 06:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:53:03.066455
- Title: Federated Crowdsensing: Framework and Challenges
- Title(参考訳): Federated Crowd Sensing: フレームワークと課題
- Authors: Leye Wang, Han Yu, Xiao Han
- Abstract要約: クラウドセンシングは、スマートシティアプリケーションにとって有望なセンシングパラダイムである。
プライバシー保護は、クラウドセンシングシステムにおける重要な問題の1つだ。
本稿では,各クラウドセンシング段階のプライバシー問題を分析する,連合型クラウドセンシングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.110862329289272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowdsensing is a promising sensing paradigm for smart city applications
(e.g., traffic and environment monitoring) with the prevalence of smart mobile
devices and advanced network infrastructure. Meanwhile, as tasks are performed
by individuals, privacy protection is one of the key issues in crowdsensing
systems. Traditionally, to alleviate users' privacy concerns, noises are added
to participants' sensitive data (e.g., participants' locations) through
techniques such as differential privacy. However, this inevitably results in
quality loss to the crowdsensing task. Recently, federated learning paradigm
has been proposed, which aims to achieve privacy preservation in machine
learning while ensuring that the learning quality suffers little or no loss.
Inspired by the federated learning paradigm, this article studies how federated
learning may benefit crowdsensing applications. In particular, we first propose
a federated crowdsensing framework, which analyzes the privacy concerns of each
crowdsensing stage (i.e., task creation, task assignment, task execution, and
data aggregation) and discuss how federated learning techniques may take
effect. Finally, we summarize key challenges and opportunities in federated
crowdsensing.
- Abstract(参考訳): crowdsensingはスマートシティアプリケーション(トラフィックや環境モニタリングなど)のための有望なセンシングパラダイムであり、スマートモバイルデバイスや高度なネットワークインフラストラクチャが普及している。
一方、タスクは個人によって行われるため、プライバシー保護はクラウドセンシングシステムにおける重要な問題のひとつです。
伝統的に、ユーザのプライバシの懸念を軽減するため、ノイズはディファレンシャルプライバシなどの技術を通じて参加者の機密データ(例えば、参加者の位置)に追加される。
しかし、これは必然的にクラウドセンシング作業に品質損失をもたらす。
近年,機械学習におけるプライバシ保護を実現しつつ,学習品質がほとんど,あるいはまったく損なわないことを保証する,連合学習パラダイムが提案されている。
フェデレーション学習パラダイムに着想を得て,フェデレーション学習がクラウドセンシングアプリケーションに与える影響について検討する。
具体的には,まず,各クラウドセンシングステージ(タスク作成,タスク割り当て,タスク実行,データ集約など)のプライバシー問題を分析し,フェデレーション学習技術がどのような効果を発揮するかについて議論する,フェデレートクラウドセンシングフレームワークを提案する。
最後に,連合クラウドセンシングにおける重要な課題と機会をまとめた。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual
Learning [76.47138162283714]
蓄積とは、以前取得した情報や知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
調査では、忘れることは二重刃の剣であり、ある場合には有益で望ましいと論じている。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Practical Vertical Federated Learning with Unsupervised Representation
Learning [47.77625754666018]
フェデレートされた学習は、複数のパーティが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
我々はFedOnceという,一対一のコミュニケーションしか必要としない新しいコミュニケーション効率の縦型学習アルゴリズムを提案する。
私たちのプライバシー保護技術は、同じプライバシー予算の下で最先端のアプローチを著しく上回ります。
論文 参考訳(メタデータ) (2022-08-13T08:41:32Z) - Improving Federated Learning Face Recognition via Privacy-Agnostic
Clusters [7.437386882362172]
この研究は、フェデレートされた顔認識を改善するためのフレームワークであるPrivacyFaceを提案する。
第一に, 局所的局所的クラスタリング機構は, 局所的なクラス中心から沈殿したクラスターを蒸留するために提案されている。
第二に、コンセンサス対応の認識損失は、その後、クライアント間のグローバルなコンセンサスを促進し、それによってより差別的な特徴が生まれる。
論文 参考訳(メタデータ) (2022-01-29T01:27:04Z) - Federated Learning: A Signal Processing Perspective [144.63726413692876]
フェデレーションラーニングは、データを明示的に交換することなく、ローカルデータセットを保持する複数のエッジデバイスでモデルをトレーニングするための新しい機械学習パラダイムです。
本稿では、信号処理ツールを用いて扱うのが自然である主な課題をカプセル化し、強調する、連合学習のための統一的な体系的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-03-31T15:14:39Z) - DiPSeN: Differentially Private Self-normalizing Neural Networks For
Adversarial Robustness in Federated Learning [6.1448102196124195]
フェデレーション学習は、プライバシー侵害や情報の漏洩から保護するのに役立ちます。
機械学習モデルを敵のサンプルから防御することがより困難にする新しいリスクベクターを導入している。
DiPSeNは、差分プライバシーノイズの要素と自己正規化技術を組み合わせた差分プライベート自己正規化ニューラルネットワークです。
論文 参考訳(メタデータ) (2021-01-08T20:49:56Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy [8.30788601976591]
本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
論文 参考訳(メタデータ) (2020-07-02T06:47:35Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。