論文の概要: Distributed Machine Learning and the Semblance of Trust
- arxiv url: http://arxiv.org/abs/2112.11040v1
- Date: Tue, 21 Dec 2021 08:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 21:36:15.677649
- Title: Distributed Machine Learning and the Semblance of Trust
- Title(参考訳): 分散機械学習と信頼の接点
- Authors: Dmitrii Usynin, Alexander Ziller, Daniel Rueckert, Jonathan
Passerat-Palmbach, Georgios Kaissis
- Abstract要約: フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
- 参考スコア(独自算出の注目度): 66.1227776348216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilisation of large and diverse datasets for machine learning (ML) at
scale is required to promote scientific insight into many meaningful problems.
However, due to data governance regulations such as GDPR as well as ethical
concerns, the aggregation of personal and sensitive data is problematic, which
prompted the development of alternative strategies such as distributed ML
(DML). Techniques such as Federated Learning (FL) allow the data owner to
maintain data governance and perform model training locally without having to
share their data. FL and related techniques are often described as
privacy-preserving. We explain why this term is not appropriate and outline the
risks associated with over-reliance on protocols that were not designed with
formal definitions of privacy in mind. We further provide recommendations and
examples on how such algorithms can be augmented to provide guarantees of
governance, security, privacy and verifiability for a general ML audience
without prior exposure to formal privacy techniques.
- Abstract(参考訳): 機械学習(ML)の大規模かつ多様なデータセットの利用は、多くの意味のある問題に対する科学的洞察を促進するために必要である。
しかしながら、gdprなどのデータガバナンス規則や倫理上の懸念から、個人的および機密性の高いデータの集約が問題となり、分散ml(dml)のような代替戦略の開発が進められた。
フェデレートラーニング(FL)のような技術により、データ所有者はデータガバナンスを維持でき、データを共有することなく、ローカルでモデルトレーニングを実行できる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに過度に依存するリスクを概説する。
さらに,このようなアルゴリズムを拡張することで,一般的なmlオーディエンスに対するガバナンス,セキュリティ,プライバシ,検証性の保証を,形式的なプライバシ技術に事前露出することなく提供する,というレコメンデーションや例も提供します。
関連論文リスト
- Data Collaboration Analysis Over Matrix Manifolds [0.0]
プライバシー保護機械学習(PPML)は、機密情報の保護によってこの問題に対処する。
NRI-DCフレームワークは革新的なアプローチとして登場し、機関間の「データアイランド」問題を解消する可能性がある。
本研究は,これらの協調関数の厳密な理論的基礎を確立し,新しい定式化を導入する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Offline Reinforcement Learning with Differential Privacy [16.871660060209674]
オフラインの強化学習問題は、金融、法、医療のアプリケーションでデータ駆動の意思決定ポリシーを学ぶ必要性によって、しばしば動機付けられます。
このようなリスクを確実に防止できる差分プライバシー保証付きオフラインRLアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-06-02T00:45:04Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Data-driven Regularized Inference Privacy [33.71757542373714]
データを衛生化するためのデータ駆動推論プライバシ保護フレームワークを提案する。
我々は変分法に基づく推論プライバシ・フレームワークを開発する。
プライバシー基準を推定するための実証的手法を提案する。
論文 参考訳(メタデータ) (2020-10-10T08:42:59Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。