論文の概要: SoK: Assessing the State of Applied Federated Machine Learning
- arxiv url: http://arxiv.org/abs/2308.02454v1
- Date: Thu, 3 Aug 2023 07:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 12:13:44.296296
- Title: SoK: Assessing the State of Applied Federated Machine Learning
- Title(参考訳): SoK: Applied Federated Machine Learningの状況を評価する
- Authors: Tobias M\"uller, Maximilian St\"abler, Hugo Gasc\'on, Frank K\"oster,
and Florian Matthes
- Abstract要約: Federated Machine Learning(FedML)は、データのプライバシを優先するモデルからデータへのアプローチである。
FedMLは、プライバシー保護を強化し、プライバシクリティカルな環境に適合する。
その理論的利点にもかかわらず、FedMLは広く実践的な実装を見ていない。
- 参考スコア(独自算出の注目度): 0.5138012450471438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) has shown significant potential in various
applications; however, its adoption in privacy-critical domains has been
limited due to concerns about data privacy. A promising solution to this issue
is Federated Machine Learning (FedML), a model-to-data approach that
prioritizes data privacy. By enabling ML algorithms to be applied directly to
distributed data sources without sharing raw data, FedML offers enhanced
privacy protections, making it suitable for privacy-critical environments.
Despite its theoretical benefits, FedML has not seen widespread practical
implementation. This study aims to explore the current state of applied FedML
and identify the challenges hindering its practical adoption. Through a
comprehensive systematic literature review, we assess 74 relevant papers to
analyze the real-world applicability of FedML. Our analysis focuses on the
characteristics and emerging trends of FedML implementations, as well as the
motivational drivers and application domains. We also discuss the encountered
challenges in integrating FedML into real-life settings. By shedding light on
the existing landscape and potential obstacles, this research contributes to
the further development and implementation of FedML in privacy-critical
scenarios.
- Abstract(参考訳): 機械学習(ML)は、さまざまなアプリケーションにおいて大きな可能性を示しているが、プライバシクリティカルなドメインへの採用は、データのプライバシに関する懸念から制限されている。
この問題に対する有望な解決策は、データプライバシを優先するモデルからデータへのアプローチであるfederated machine learning(fedml)である。
生データを共有せずに、MLアルゴリズムを直接分散データソースに適用できるようにすることで、FedMLは、プライバシー保護を強化し、プライバシクリティカルな環境に適している。
その理論的利点にもかかわらず、FedMLは広く実践的な実装を見ていない。
本研究の目的は、FedMLの適用状況を調べ、その実践的採用を妨げる課題を特定することである。
総合的な体系的な文献レビューを通じて、FedMLの現実的な適用性を分析するための74の関連論文を評価する。
本分析では,FedMLの実装の特徴と動向,および動機付けドライバとアプリケーションドメインに注目した。
また、FedMLを実環境に組み込む際の課題についても論じる。
既存の状況と潜在的な障害に光を当てることで、プライバシクリティカルなシナリオにおけるFedMLのさらなる開発と実装に寄与する。
関連論文リスト
- Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Wildest Dreams: Reproducible Research in Privacy-preserving Neural
Network Training [2.853180143237022]
この作業は、ユーザデータのプライバシを維持することが最も重要であるMLモデルのトレーニングフェーズに重点を置いている。
我々は、現在のアプローチの理解を容易にする、しっかりとした理論的背景を提供する。
我々は,いくつかの論文の成果を再現し,その分野における既存の研究がオープンサイエンスを支援するレベルについて検討する。
論文 参考訳(メタデータ) (2024-03-06T10:25:36Z) - Data Collaboration Analysis Over Matrix Manifolds [0.0]
プライバシー保護機械学習(PPML)は、機密情報の保護によってこの問題に対処する。
NRI-DCフレームワークは革新的なアプローチとして登場し、機関間の「データアイランド」問題を解消する可能性がある。
本研究は,これらの協調関数の厳密な理論的基礎を確立し,新しい定式化を導入する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - Analysis of Privacy Leakage in Federated Large Language Models [18.332535398635027]
大規模言語モデル(LLM)の訓練に使用するフェデレートラーニング(FL)のプライバシ分析について検討する。
特に、様々なFL構成のプライバシー漏洩を評価するために、理論的成功率を保証した2つのアクティブメンバーシップ推論攻撃を設計する。
我々の理論的な発見は、BERT、RoBERTa、DistilBERT、OpenAIのGPTなど、人気のあるLCMの重大なプライバシー上の脆弱性を明らかにする実用的な攻撃に変換される。
論文 参考訳(メタデータ) (2024-03-02T20:25:38Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Offline Reinforcement Learning with Instrumental Variables in Confounded
Markov Decision Processes [93.61202366677526]
未測定の共同設立者を対象にオフライン強化学習(RL)について検討した。
そこで本稿では, 最適クラスポリシーを見つけるための, 有限サンプルの準最適性を保証した多種多様なポリシー学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T22:03:55Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。