論文の概要: Splintering with distributions: A stochastic decoy scheme for private
computation
- arxiv url: http://arxiv.org/abs/2007.02719v3
- Date: Wed, 26 Jan 2022 17:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:11:00.202042
- Title: Splintering with distributions: A stochastic decoy scheme for private
computation
- Title(参考訳): 分布を伴うスプリッタリング:プライベート計算のための確率的デコイスキーム
- Authors: Praneeth Vepakomma, Julia Balla, Ramesh Raskar
- Abstract要約: 今日の分散機械学習ソリューションでは、プライバシを維持しながら計算を実行することが重要な問題である。
本稿では,このような設定でサーバに送信される民営化共有にクライアントデータを分割する手法を提案する。
- 参考スコア(独自算出の注目度): 10.438220710603815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performing computations while maintaining privacy is an important problem in
todays distributed machine learning solutions. Consider the following two set
ups between a client and a server, where in setup i) the client has a public
data vector $\mathbf{x}$, the server has a large private database of data
vectors $\mathcal{B}$ and the client wants to find the inner products $\langle
\mathbf{x,y_k} \rangle, \forall \mathbf{y_k} \in \mathcal{B}$. The client does
not want the server to learn $\mathbf{x}$ while the server does not want the
client to learn the records in its database. This is in contrast to another
setup ii) where the client would like to perform an operation solely on its
data, such as computation of a matrix inverse on its data matrix $\mathbf{M}$,
but would like to use the superior computing ability of the server to do so
without having to leak $\mathbf{M}$ to the server. \par We present a stochastic
scheme for splitting the client data into privatized shares that are
transmitted to the server in such settings. The server performs the requested
operations on these shares instead of on the raw client data at the server. The
obtained intermediate results are sent back to the client where they are
assembled by the client to obtain the final result.
- Abstract(参考訳): 今日の分散機械学習ソリューションでは、プライバシを維持しながら計算を実行することが重要な問題である。
クライアントとサーバの間の以下の2つのセットアップについて考えてみましょう。
i) クライアントは公開データベクトル $\mathbf{x}$ を持ち、サーバはデータベクトルの大規模なプライベートデータベース $\mathcal{b}$ を持ち、クライアントは内部積 $\langle \mathbf{x,y_k} \rangle, \forall \mathbf{y_k} \in \mathcal{b}$ を見つけようとする。
クライアントはサーバに$\mathbf{x}$を学習させたくありませんが、サーバはクライアントにそのデータベースでレコードを学習させたくありません。
これは別の設定とは対照的です
二 クライアントは、データマトリックス$\mathbf{M}$の逆行列の計算のように、データのみに演算を実行したい場合において、サーバに$\mathbf{M}$をリークすることなく、サーバの優れた計算能力を使いたいと思っています。
このような設定でサーバに送信される民営化された共有にクライアントデータを分割する確率的スキームを提案する。
サーバは、サーバの生のクライアントデータではなく、これらの共有で要求された操作を実行する。
得られた中間結果がクライアントに送信され、クライアントによって組み立てられ、最終的な結果が得られる。
関連論文リスト
- Federated Aggregation of Mallows Rankings: A Comparative Analysis of Borda and Lehmer Coding [27.138031759281745]
ボルダのスコアリングとレーマー符号を用いた最初の連邦ランクアグリゲーション法を提案する。
この結果は,Mallowsモデルの下での集中的および分散的設定におけるボルダ法の最初の厳密な解析である。
論文 参考訳(メタデータ) (2024-09-01T21:36:09Z) - Differentially Private Clustering in Data Streams [65.78882209673885]
オフラインのDPコアセットやクラスタリングアルゴリズムをブラックボックスとしてのみ必要とする,差分プライベートなストリーミングクラスタリングフレームワークを提案する。
我々のフレームワークはまた、連続的なリリース設定の下で微分プライベートであり、すなわち、全てのタイムスタンプにおけるアルゴリズムの出力の和は常に微分プライベートである。
論文 参考訳(メタデータ) (2023-07-14T16:11:22Z) - Adaptive Compression in Federated Learning via Side Information [28.401993810064255]
約$D_KL(q_phi(n) p_theta$ ビットの通信を必要とするフレームワークを提案する。
私たちは、我々のメソッドを既存の圧縮フレームワークに組み込むことで、以前の作業の最大8,2500ドル(約8,500円)の精度で、同じ(そしてしばしば高い)テストの精度を達成することができることを示しています。
論文 参考訳(メタデータ) (2023-06-22T01:29:50Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Federated Learning with Regularized Client Participation [1.433758865948252]
Federated Learning(FL)は、複数のクライアントが協力して機械学習タスクを解決する分散機械学習アプローチである。
FLの主な課題の1つは、多くのクライアントがトレーニングプロセスに関与しているときに発生する部分的な参加の問題である。
本稿では,新しい手法を提案し,新しいクライアント参加方式を設計する。
論文 参考訳(メタデータ) (2023-02-07T18:26:07Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Domain Discrepancy Aware Distillation for Model Aggregation in Federated
Learning [47.87639746826555]
サーバ・ツー・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアント・クライアントの相違という2つの課題をドメインの相違によって集約モデルに導いた。
本稿では,領域差を考慮した蒸留に基づく適応的知識集約アルゴリズムFedD3Aを提案する。
論文 参考訳(メタデータ) (2022-10-04T04:08:16Z) - HideNseek: Federated Lottery Ticket via Server-side Pruning and Sign
Supermask [11.067931264340931]
フェデレーション学習は、ローカルモデルの更新のみを中央サーバに送信することで、分散学習におけるプライバシーリスクを軽減する。
従来の研究は、パーソナライズと量子化とプルーニングを含むモデル圧縮スキームを組み合わせることで、これらの課題に対処してきた。
本稿では,重みのシナプス性に基づくサブネットワークを実現するために,ワンショットデータ非依存プルーニングを用いたHydenNseekを提案する。
論文 参考訳(メタデータ) (2022-06-09T09:55:31Z) - Timely Communication in Federated Learning [65.1253801733098]
我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練するグローバルラーニングフレームワークを検討する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
論文 参考訳(メタデータ) (2020-12-31T18:52:08Z) - Corella: A Private Multi Server Learning Approach based on Correlated
Queries [30.3330177204504]
データプライバシーを保護する代替手段として、$textitCorella$を提案する。
提案手法はサーバのクラスタに依存しており,少なくともmathbbN$のTは,それぞれが学習モデルを実行することでコロードを行うことができる。
ノイズのばらつきは、情報漏洩を最大$T$サーバの任意のサブセットに、理論的に無視できるほど大きく設定されている。
論文 参考訳(メタデータ) (2020-03-26T17:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。