論文の概要: Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy
- arxiv url: http://arxiv.org/abs/2007.00914v2
- Date: Tue, 6 Oct 2020 07:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 12:48:14.627727
- Title: Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy
- Title(参考訳): Federated Learning and Differential Privacy: ソフトウェアツール分析、Sherpa.ai FLフレームワーク、およびデータプライバシ保護のための方法論ガイドライン
- Authors: Nuria Rodr\'iguez-Barroso, Goran Stipcich, Daniel Jim\'enez-L\'opez,
Jos\'e Antonio Ruiz-Mill\'an, Eugenio Mart\'inez-C\'amara, Gerardo
Gonz\'alez-Seco, M. Victoria Luz\'on, Miguel \'Angel Veganzones, Francisco
Herrera
- Abstract要約: 本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
- 参考スコア(独自算出の注目度): 8.30788601976591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high demand of artificial intelligence services at the edges that also
preserve data privacy has pushed the research on novel machine learning
paradigms that fit those requirements. Federated learning has the ambition to
protect data privacy through distributed learning methods that keep the data in
their data silos. Likewise, differential privacy attains to improve the
protection of data privacy by measuring the privacy loss in the communication
among the elements of federated learning. The prospective matching of federated
learning and differential privacy to the challenges of data privacy protection
has caused the release of several software tools that support their
functionalities, but they lack of the needed unified vision for those
techniques, and a methodological workflow that support their use. Hence, we
present the Sherpa.ai Federated Learning framework that is built upon an
holistic view of federated learning and differential privacy. It results from
the study of how to adapt the machine learning paradigm to federated learning,
and the definition of methodological guidelines for developing artificial
intelligence services based on federated learning and differential privacy. We
show how to follow the methodological guidelines with the Sherpa.ai Federated
Learning framework by means of a classification and a regression use cases.
- Abstract(参考訳): データプライバシを保護する最先端の人工知能サービスに対する高い需要は、これらの要件に適合する新しい機械学習パラダイムの研究を促している。
フェデレーション学習は、データをデータサイロに保持する分散学習方法を通じて、データのプライバシを保護するという野心を持っている。
同様に、差分プライバシーは、フェデレーション学習の要素間のコミュニケーションにおけるプライバシー損失を測定することによって、データプライバシーの保護を改善することができる。
データプライバシ保護の課題に対するフェデレーション学習とディファレンシャルプライバシの将来のマッチングは、機能をサポートするいくつかのソフトウェアツールのリリースを招いているが、それらのテクニックに対する統一的なビジョンや、その使用をサポートする方法論的ワークフローが欠如している。
そこで本研究では,連合学習と差分プライバシーの全体観に基づいて構築された,sherpa.ai連合学習フレームワークを提案する。
これは、機械学習パラダイムをフェデレーション学習に適用する方法の研究と、フェデレーション学習と差分プライバシーに基づく人工知能サービスを開発するための方法論ガイドラインの定義から生まれた。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
関連論文リスト
- A chaotic maps-based privacy-preserving distributed deep learning for
incomplete and Non-IID datasets [1.30536490219656]
フェデレート・ラーニング(Federated Learning)は、センシティブなデータを持つ複数の参加者の間でディープラーニングモデルのトレーニングを可能にする機械学習アプローチである。
本研究では,セキュアなフェデレート学習手法と付加的なプライバシー層を用いて,非IID課題に対処する手法を提案する。
論文 参考訳(メタデータ) (2024-02-15T17:49:50Z) - An advanced data fabric architecture leveraging homomorphic encryption
and federated learning [10.779491433438144]
本稿では,分散データファブリックアーキテクチャにおけるフェデレーション学習と部分同型暗号を用いた医用画像解析のためのセキュアなアプローチを提案する。
本研究は下垂体腫瘍分類のケーススタディを通じて, 本手法の有効性を実証し, 高い精度を達成した。
論文 参考訳(メタデータ) (2024-02-15T08:50:36Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Towards Privacy-Aware Causal Structure Learning in Federated Setting [27.5652887311069]
フェデレートされた環境におけるプライバシーに配慮した因果構造学習問題について検討する。
データを集中化せずにデータのプライバシを保存するための2つの新しい戦略を持つ新しいフェデレーションPC(FedPC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-13T14:54:42Z) - Practical Vertical Federated Learning with Unsupervised Representation
Learning [47.77625754666018]
フェデレートされた学習は、複数のパーティが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
我々はFedOnceという,一対一のコミュニケーションしか必要としない新しいコミュニケーション効率の縦型学習アルゴリズムを提案する。
私たちのプライバシー保護技術は、同じプライバシー予算の下で最先端のアプローチを著しく上回ります。
論文 参考訳(メタデータ) (2022-08-13T08:41:32Z) - Detecting Privacy Requirements from User Stories with NLP Transfer
Learning Models [1.6951941479979717]
本稿では,プライバシ関連情報を自動検出することで,アジャイルソフトウェア開発におけるプライバシリスクを低減するアプローチを提案する。
提案手法は自然言語処理(NLP)と言語資源とディープラーニングアルゴリズムを組み合わせて,プライバシの側面をユーザストーリに識別する。
論文 参考訳(メタデータ) (2022-02-02T14:02:13Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。