論文の概要: Secure Sum Outperforms Homomorphic Encryption in (Current) Collaborative
Deep Learning
- arxiv url: http://arxiv.org/abs/2006.02894v2
- Date: Mon, 25 Oct 2021 21:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:12:10.058913
- Title: Secure Sum Outperforms Homomorphic Encryption in (Current) Collaborative
Deep Learning
- Title(参考訳): 安全なSumは(現在)協調的深層学習における同型暗号化に優れる
- Authors: Derian Boer and Stefan Kramer
- Abstract要約: 我々は、異なるデータ所有者のジョイントデータに基づいてニューラルネットワークをトレーニングする方法について議論し、各パーティの入力を秘密にしている。
より複雑で計算コストの低いセキュア和プロトコルは、共謀耐性と実行性の両方において優れた特性を示すことを示す。
- 参考スコア(独自算出の注目度): 7.690774882108066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) approaches are achieving extraordinary results in a wide
range of domains, but often require a massive collection of private data.
Hence, methods for training neural networks on the joint data of different data
owners, that keep each party's input confidential, are called for. We address a
specific setting in federated learning, namely that of deep learning from
horizontally distributed data with a limited number of parties, where their
vulnerable intermediate results have to be processed in a privacy-preserving
manner. This setting can be found in medical and healthcare as well as
industrial applications. The predominant scheme for this is based on
homomorphic encryption (HE), and it is widely considered to be without
alternative. In contrast to this, we demonstrate that a carefully chosen, less
complex and computationally less expensive secure sum protocol in conjunction
with default secure channels exhibits superior properties in terms of both
collusion-resistance and runtime. Finally, we discuss several open research
questions in the context of collaborative DL, especially regarding privacy
risks caused by joint intermediate results.
- Abstract(参考訳): ディープラーニング(dl)アプローチは、幅広いドメインで驚くべき結果をもたらしているが、多くの場合、大量のプライベートデータを必要とする。
したがって、各パーティの入力を秘密保持する、異なるデータ所有者のジョイントデータ上でニューラルネットワークをトレーニングする方法が求められている。
フェデレーション学習における特定の設定、すなわち、水平に分散したデータから、限られた人数で深層学習を行い、その脆弱な中間結果をプライバシー保護の方法で処理する必要がある。
この設定は、医療や医療、産業用途にも適用できる。
この主なスキームは準同型暗号(he)に基づいており、代替法がないと広く考えられている。
これとは対照的に、デフォルトのセキュアチャネルと合わせて慎重に選択され、より複雑で計算コストの少ないsecure sumプロトコルが、結合耐性と実行時の両方において優れた特性を示すことを実証する。
最後に、協調的なDLの文脈におけるいくつかのオープンな研究課題、特に共同中間結果によるプライバシーリスクについて論じる。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-preserving Deep Learning based Record Linkage [14.755422488889824]
深層学習に基づく複数パーティのプライバシ保存記録リンクプロトコルを提案する。
このアプローチでは,各データベース所有者がまずローカルなディープラーニングモデルをトレーニングし,それをセキュアな環境にアップロードする。
グローバルモデルは、マッチと非マッチを区別するために、リンケージユニットによって使用される。
論文 参考訳(メタデータ) (2022-11-03T22:10:12Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。