論文の概要: Secure Summation via Subset Sums: A New Primitive for Privacy-Preserving
Distributed Machine Learning
- arxiv url: http://arxiv.org/abs/1906.11993v2
- Date: Mon, 19 Jun 2023 18:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 08:33:16.642243
- Title: Secure Summation via Subset Sums: A New Primitive for Privacy-Preserving
Distributed Machine Learning
- Title(参考訳): Subset Sumsによるセキュアなサミネーション - 分散機械学習のプライバシ保護のための新しいプリミティブ
- Authors: Valentin Hartmann, Robert West
- Abstract要約: サミネーションは計算手段、カウント、ミニバッチ勾配にとって重要なプリミティブである。
多くの場合、データはプライバシーに敏感であり、中央サーバーでは収集できない。
分散和と計算プライバシ保証の既存のソリューションは、現実の環境で満たされない信頼や接続の前提を定めている。
本稿では,悪意のあるサーバと2つの正直なクライアントの存在下で機能する分散和法であるSecure Summation via Subset Sums (S5)を提案する。
- 参考スコア(独自算出の注目度): 15.275126264550943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For population studies or for the training of complex machine learning
models, it is often required to gather data from different actors. In these
applications, summation is an important primitive: for computing means, counts
or mini-batch gradients. In many cases, the data is privacy-sensitive and
therefore cannot be collected on a central server. Hence the summation needs to
be performed in a distributed and privacy-preserving way. Existing solutions
for distributed summation with computational privacy guarantees make trust or
connection assumptions - e.g., the existence of a trusted server or
peer-to-peer connections between clients - that might not be fulfilled in real
world settings. Motivated by these challenges, we propose Secure Summation via
Subset Sums (S5), a method for distributed summation that works in the presence
of a malicious server and only two honest clients, and without the need for
peer-to-peer connections between clients. S5 adds zero-sum noise to clients'
messages and shuffles them before sending them to the aggregating server. Our
main contribution is a proof that this scheme yields a computational privacy
guarantee based on the multidimensional subset sum problem. Our analysis of
this problem may be of independent interest for other privacy and cryptography
applications.
- Abstract(参考訳): 集団研究や複雑な機械学習モデルの訓練のためには、しばしば異なるアクターからのデータを収集する必要がある。
これらのアプリケーションでは、集計は重要なプリミティブである: 計算手段では、カウントまたはミニバッチ勾配である。
多くの場合、データはプライバシーに敏感であり、中央のサーバで収集することはできない。
したがって、総和は分散およびプライバシ保護の方法で実行する必要がある。
計算プライバシを保証した分散要約ソリューションは、信頼や接続の仮定(信頼されたサーバの存在やクライアント間のピアツーピア接続など)を現実の環境では実現できない。
これらの課題に動機づけられて,我々は,悪意のあるサーバと2つの正直なクライアントの存在下で動作し,クライアント間のピアツーピア接続を必要とせず,分散要約を行う手法であるs5によるセキュアな要約を提案する。
S5はクライアントのメッセージにゼロサムノイズを追加し、集約サーバに送信する前にシャッフルする。
我々の主な貢献は、このスキームが多次元部分集合和問題に基づく計算プライバシ保証をもたらすことの証明である。
この問題に対する我々の分析は、他のプライバシーおよび暗号アプリケーションに対して独立した関心を持つかもしれない。
関連論文リスト
- CURE: Privacy-Preserving Split Learning Done Right [1.388112207221632]
このシナリオには、同型暗号化(HE)ベースのソリューションが存在するが、しばしば禁止的な計算負担を課す。
CUREは、モデルとデータのサーバ側のみを暗号化する新しいシステムである。
CUREは、実行時の16倍の効率で、平文SLと同等の精度を実現できることを示す。
論文 参考訳(メタデータ) (2024-07-12T04:10:19Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Secure Distributed/Federated Learning: Prediction-Privacy Trade-Off for
Multi-Agent System [4.190359509901197]
分散学習(DLとFL)フレームワーク内で推論を行うビッグデータ時代において、中央サーバは大量のデータを処理する必要がある。
分散コンピューティングトポロジを考えると、プライバシは第一級の関心事になっている。
本研究では,テキストプライバシを意識したサーバを,エージェントごとの情報処理制約を考慮したマルチエージェント代入問題に適用する。
論文 参考訳(メタデータ) (2022-04-24T19:19:20Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z) - Corella: A Private Multi Server Learning Approach based on Correlated
Queries [30.3330177204504]
データプライバシーを保護する代替手段として、$textitCorella$を提案する。
提案手法はサーバのクラスタに依存しており,少なくともmathbbN$のTは,それぞれが学習モデルを実行することでコロードを行うことができる。
ノイズのばらつきは、情報漏洩を最大$T$サーバの任意のサブセットに、理論的に無視できるほど大きく設定されている。
論文 参考訳(メタデータ) (2020-03-26T17:44:00Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。