論文の概要: Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy
- arxiv url: http://arxiv.org/abs/2007.00914v2
- Date: Tue, 6 Oct 2020 07:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 12:48:14.627727
- Title: Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy
- Title(参考訳): Federated Learning and Differential Privacy: ソフトウェアツール分析、Sherpa.ai FLフレームワーク、およびデータプライバシ保護のための方法論ガイドライン
- Authors: Nuria Rodr\'iguez-Barroso, Goran Stipcich, Daniel Jim\'enez-L\'opez,
Jos\'e Antonio Ruiz-Mill\'an, Eugenio Mart\'inez-C\'amara, Gerardo
Gonz\'alez-Seco, M. Victoria Luz\'on, Miguel \'Angel Veganzones, Francisco
Herrera
- Abstract要約: 本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
- 参考スコア(独自算出の注目度): 8.30788601976591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high demand of artificial intelligence services at the edges that also
preserve data privacy has pushed the research on novel machine learning
paradigms that fit those requirements. Federated learning has the ambition to
protect data privacy through distributed learning methods that keep the data in
their data silos. Likewise, differential privacy attains to improve the
protection of data privacy by measuring the privacy loss in the communication
among the elements of federated learning. The prospective matching of federated
learning and differential privacy to the challenges of data privacy protection
has caused the release of several software tools that support their
functionalities, but they lack of the needed unified vision for those
techniques, and a methodological workflow that support their use. Hence, we
present the Sherpa.ai Federated Learning framework that is built upon an
holistic view of federated learning and differential privacy. It results from
the study of how to adapt the machine learning paradigm to federated learning,
and the definition of methodological guidelines for developing artificial
intelligence services based on federated learning and differential privacy. We
show how to follow the methodological guidelines with the Sherpa.ai Federated
Learning framework by means of a classification and a regression use cases.
- Abstract(参考訳): データプライバシを保護する最先端の人工知能サービスに対する高い需要は、これらの要件に適合する新しい機械学習パラダイムの研究を促している。
フェデレーション学習は、データをデータサイロに保持する分散学習方法を通じて、データのプライバシを保護するという野心を持っている。
同様に、差分プライバシーは、フェデレーション学習の要素間のコミュニケーションにおけるプライバシー損失を測定することによって、データプライバシーの保護を改善することができる。
データプライバシ保護の課題に対するフェデレーション学習とディファレンシャルプライバシの将来のマッチングは、機能をサポートするいくつかのソフトウェアツールのリリースを招いているが、それらのテクニックに対する統一的なビジョンや、その使用をサポートする方法論的ワークフローが欠如している。
そこで本研究では,連合学習と差分プライバシーの全体観に基づいて構築された,sherpa.ai連合学習フレームワークを提案する。
これは、機械学習パラダイムをフェデレーション学習に適用する方法の研究と、フェデレーション学習と差分プライバシーに基づく人工知能サービスを開発するための方法論ガイドラインの定義から生まれた。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
関連論文リスト
- Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Concurrent vertical and horizontal federated learning with fuzzy cognitive maps [1.104960878651584]
本研究ではファジィ認知地図を用いた新しいフェデレーション学習フレームワークを提案する。
多様なデータ分散と非識別分散機能によって引き起こされる課題を包括的に解決するように設計されている。
その結果,プライバシと機密性の基準を維持しつつ,望ましい学習結果を達成するためのアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-12-17T12:11:14Z) - Differentially Private Federated Learning: A Systematic Review [35.13641504685795]
本稿では,様々な差分プライバシモデルとシナリオの定義と保証に基づく,差分私的フェデレーション学習の新しい分類法を提案する。
本研究は,プライバシ保護フェデレーション学習に関する貴重な知見を提供し,今後の研究に向けた実践的方向性を提案する。
論文 参考訳(メタデータ) (2024-05-14T03:49:14Z) - A chaotic maps-based privacy-preserving distributed deep learning for
incomplete and Non-IID datasets [1.30536490219656]
フェデレート・ラーニング(Federated Learning)は、センシティブなデータを持つ複数の参加者の間でディープラーニングモデルのトレーニングを可能にする機械学習アプローチである。
本研究では,セキュアなフェデレート学習手法と付加的なプライバシー層を用いて,非IID課題に対処する手法を提案する。
論文 参考訳(メタデータ) (2024-02-15T17:49:50Z) - An advanced data fabric architecture leveraging homomorphic encryption
and federated learning [10.779491433438144]
本稿では,分散データファブリックアーキテクチャにおけるフェデレーション学習と部分同型暗号を用いた医用画像解析のためのセキュアなアプローチを提案する。
本研究は下垂体腫瘍分類のケーススタディを通じて, 本手法の有効性を実証し, 高い精度を達成した。
論文 参考訳(メタデータ) (2024-02-15T08:50:36Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。