論文の概要: Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective
- arxiv url: http://arxiv.org/abs/2011.05411v5
- Date: Thu, 18 Mar 2021 12:32:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:04:16.508815
- Title: Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective
- Title(参考訳): フェデレートラーニングにおけるプライバシ保護 : GDPRの視点からの洞察に富んだ調査
- Authors: Nguyen Truong, Kai Sun, Siyao Wang, Florian Guitton, Yike Guo
- Abstract要約: この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
- 参考スコア(独自算出の注目度): 10.901568085406753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Along with the blooming of AI and Machine Learning-based applications and
services, data privacy and security have become a critical challenge.
Conventionally, data is collected and aggregated in a data centre on which
machine learning models are trained. This centralised approach has induced
severe privacy risks to personal data leakage, misuse, and abuse. Furthermore,
in the era of the Internet of Things and big data in which data is essentially
distributed, transferring a vast amount of data to a data centre for processing
seems to be a cumbersome solution. This is not only because of the difficulties
in transferring and sharing data across data sources but also the challenges on
complying with rigorous data protection regulations and complicated
administrative procedures such as the EU General Data Protection Regulation
(GDPR). In this respect, Federated learning (FL) emerges as a prospective
solution that facilitates distributed collaborative learning without disclosing
original training data whilst naturally complying with the GDPR. Recent
research has demonstrated that retaining data and computation on-device in FL
is not sufficient enough for privacy-guarantee. This is because ML model
parameters exchanged between parties in an FL system still conceal sensitive
information, which can be exploited in some privacy attacks. Therefore, FL
systems shall be empowered by efficient privacy-preserving techniques to comply
with the GDPR. This article is dedicated to surveying on the state-of-the-art
privacy-preserving techniques which can be employed in FL in a systematic
fashion, as well as how these techniques mitigate data security and privacy
risks. Furthermore, we provide insights into the challenges along with
prospective approaches following the GDPR regulatory guidelines that an FL
system shall implement to comply with the GDPR.
- Abstract(参考訳): AIと機械学習ベースのアプリケーションとサービスの普及に伴い、データのプライバシとセキュリティは重要な課題となっている。
従来、データは機械学習モデルがトレーニングされたデータセンタに収集され、集約される。
この集中型アプローチは、個人情報の漏洩、誤用、乱用に深刻なプライバシーリスクをもたらしている。
さらに、モノのインターネット(Internet of Things)や、データが本質的に分散しているビッグデータの時代においては、大量のデータをデータセンターに転送して処理するのは厄介なソリューションである。
これは、データソース間でデータの転送と共有が困難であるだけでなく、厳格なデータ保護規則やEU一般データ保護規則(GDPR)のような複雑な管理手順に従う上での課題でもある。
この点において、フェデレーテッド・ラーニング(FL)は、GDPRに自然に準拠しながら、元のトレーニングデータを開示することなく、分散協調学習を容易にする先進的なソリューションとして出現する。
近年の研究では、FLでデータと計算をデバイス上で保持することは、プライバシガイダンスに十分ではないことが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが機密情報を隠蔽しているためである。
したがって、FLシステムはGDPRに従うための効率的なプライバシー保護技術によって強化される。
この記事では、FLで採用可能な最先端のプライバシ保護技術の調査と、これらの技術がデータのセキュリティとプライバシのリスクを軽減する方法について紹介する。
さらに、我々は、GDPRの規制ガイドラインに従って、FLシステムがGDPRに従うために実施するであろう課題に関する洞察と、今後のアプローチについて考察する。
関連論文リスト
- Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Federated Extra-Trees with Privacy Preserving [20.564530457026976]
本稿では,フェデレート・エクストラトレーズ(Federated Extra-Trees)という,新たなプライバシ保護機械学習モデルを提案する。
優れた性能を実現するために,セキュアな多施設機械学習システムを開発した。
論文 参考訳(メタデータ) (2020-02-18T01:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。