論文の概要: Secure and Differentially Private Bayesian Learning on Distributed Data
- arxiv url: http://arxiv.org/abs/2005.11007v1
- Date: Fri, 22 May 2020 05:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:51:52.735833
- Title: Secure and Differentially Private Bayesian Learning on Distributed Data
- Title(参考訳): 分散データを用いたセキュアかつ差動的ベイズ学習
- Authors: Yeongjae Gil and Xiaoqian Jiang and Miran Kim and Junghye Lee
- Abstract要約: 本稿では,事前条件付きランゲヴィンダイナミクスとRMSpropを併用した分散ベイズ学習手法を提案する。
提案手法を分散データのロジスティック回帰と生存分析に応用し, 集中型手法と比較して, 予測精度と時間複雑性の観点からその可能性を示した。
- 参考スコア(独自算出の注目度): 17.098036331529784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data integration and sharing maximally enhance the potential for novel and
meaningful discoveries. However, it is a non-trivial task as integrating data
from multiple sources can put sensitive information of study participants at
risk. To address the privacy concern, we present a distributed Bayesian
learning approach via Preconditioned Stochastic Gradient Langevin Dynamics with
RMSprop, which combines differential privacy and homomorphic encryption in a
harmonious manner while protecting private information. We applied the proposed
secure and privacy-preserving distributed Bayesian learning approach to
logistic regression and survival analysis on distributed data, and demonstrated
its feasibility in terms of prediction accuracy and time complexity, compared
to the centralized approach.
- Abstract(参考訳): データの統合と共有は、新規で有意義な発見の可能性を高める。
しかし、複数の情報源からのデータを統合することで、研究参加者の機密情報を危険にさらすことは容易ではない。
プライバシ問題に対処するため,プライバシと同型暗号化を併用し,個人情報を保護しながら調和する,事前条件付き確率勾配ランジュバンダイナミクスとRMSpropを用いた分散ベイズ学習手法を提案する。
本研究では,分散データのロジスティック回帰とサバイバル分析にセキュアでプライバシを保存した分散ベイズ学習手法を適用し,予測精度と時間複雑性の観点から,集中型アプローチと比較してその実現可能性を示した。
関連論文リスト
- Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Data Analytics with Differential Privacy [0.0]
我々は分散データとストリーミングデータを解析するための差分プライベートアルゴリズムを開発した。
分散モデルでは、学習の特定の問題 -- 分散形式で -- がデータのグローバルモデルであると考えている。
私たちは、ストリーミングモデル、ユーザーレベルのパンプライバシに対して、最も強力なプライバシー保証の1つを提供しています。
論文 参考訳(メタデータ) (2023-07-20T17:43:29Z) - Differentially Private Distributed Estimation and Learning [2.4401219403555814]
ネットワーク環境における分散推定と学習の問題について検討する。
エージェントは、プライベートに観察されたサンプルからランダム変数の未知の統計特性を推定するために情報を交換する。
エージェントは、自分のプライベートな観察に関する情報を交換することで、未知の量を見積もることができるが、プライバシー上のリスクにも直面する。
論文 参考訳(メタデータ) (2023-06-28T01:41:30Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Sparsity-Inducing Categorical Prior Improves Robustness of the
Information Bottleneck [4.2903672492917755]
フレキシビリティを提供するメカニズムとしてスペーサを用いた,スペーサ誘導型スパイクスラブを新たに提案する。
提案手法は従来の固定比例前の手法と比較して精度とロバスト性を向上することを示す。
論文 参考訳(メタデータ) (2022-03-04T22:22:51Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。