論文の概要: Privacy-Preserving Distributed Learning in the Analog Domain
- arxiv url: http://arxiv.org/abs/2007.08803v1
- Date: Fri, 17 Jul 2020 07:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:48:47.919044
- Title: Privacy-Preserving Distributed Learning in the Analog Domain
- Title(参考訳): アナログドメインにおけるプライバシー保護型分散学習
- Authors: Mahdi Soleymani, Hessam Mahdavifar, A. Salman Avestimehr
- Abstract要約: 計算サーバからデータをプライベートに保ちながら、データよりも分散学習の問題を考察する。
本稿では,アナログ領域にデータが存在する場合の問題を解くための新しいアルゴリズムを提案する。
本研究では,浮動小数点数を用いてデータを表す場合の計算処理に,提案フレームワークをどのように適用できるかを示す。
- 参考スコア(独自算出の注目度): 23.67685616088422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the critical problem of distributed learning over data while
keeping it private from the computational servers. The state-of-the-art
approaches to this problem rely on quantizing the data into a finite field, so
that the cryptographic approaches for secure multiparty computing can then be
employed. These approaches, however, can result in substantial accuracy losses
due to fixed-point representation of the data and computation overflows. To
address these critical issues, we propose a novel algorithm to solve the
problem when data is in the analog domain, e.g., the field of real/complex
numbers. We characterize the privacy of the data from both
information-theoretic and cryptographic perspectives, while establishing a
connection between the two notions in the analog domain. More specifically, the
well-known connection between the distinguishing security (DS) and the mutual
information security (MIS) metrics is extended from the discrete domain to the
continues domain. This is then utilized to bound the amount of information
about the data leaked to the servers in our protocol, in terms of the DS
metric, using well-known results on the capacity of single-input
multiple-output (SIMO) channel with correlated noise. It is shown how the
proposed framework can be adopted to do computation tasks when data is
represented using floating-point numbers. We then show that this leads to a
fundamental trade-off between the privacy level of data and accuracy of the
result. As an application, we also show how to train a machine learning model
while keeping the data as well as the trained model private. Then numerical
results are shown for experiments on the MNIST dataset. Furthermore,
experimental advantages are shown comparing to fixed-point implementations over
finite fields.
- Abstract(参考訳): 計算サーバからプライベートに保ちながら,データによる分散学習の重要課題を考える。
この問題に対する最先端のアプローチは、データを有限フィールドに定量化することに依存するため、セキュアなマルチパーティコンピューティングのための暗号的アプローチを採用することができる。
しかし、これらの手法はデータの固定点表現と計算オーバーフローによる精度の低下をもたらす可能性がある。
これらの問題に対処するために,データ領域がアナログ領域である場合,例えば実/複素数体である場合の問題を解く新しいアルゴリズムを提案する。
アナログ領域における2つの概念の関連性を確立しつつ、情報理論と暗号の両方の観点からデータのプライバシーを特徴付ける。
より具体的には、区別セキュリティ(DS)と相互情報セキュリティ(MIS)メトリクスとのよく知られた接続は、離散ドメインから連続ドメインへと拡張される。
次に、DSメトリックの観点から、この手法を用いて、相関ノイズのあるシングルインプットマルチアウトプット(SIMO)チャネルのキャパシティに関するよく知られた結果を用いて、プロトコル内のサーバにリークしたデータに関する情報をバインドする。
浮動小数点数を用いてデータを表現する場合,提案フレームワークを用いて計算処理を行う方法を示す。
そして、これがデータのプライバシーレベルと結果の正確性の間に根本的なトレードオフをもたらすことを示す。
アプリケーションとして、トレーニングされたモデルと同様にデータをプライベートに保ちながら、機械学習モデルをトレーニングする方法を示す。
次に、MNISTデータセットの実験結果を示す。
さらに、有限体上の不動点実装と比較して実験的な利点が示される。
関連論文リスト
- Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - LAVA: Data Valuation without Pre-Specified Learning Algorithms [20.578106028270607]
我々は、下流学習アルゴリズムに不利な方法でトレーニングデータを評価できる新しいフレームワークを導入する。
本研究では,訓練と検証セット間の非伝統的なクラスワイドワッサースタイン距離に基づいて,トレーニングセットに関連する検証性能のプロキシを開発する。
距離は、特定のリプシッツ条件下での任意のモデルに対する検証性能の上限を特徴付けることを示す。
論文 参考訳(メタデータ) (2023-04-28T19:05:16Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Data-SUITE: Data-centric identification of in-distribution incongruous
examples [81.21462458089142]
Data-SUITEは、ID(In-distriion)データの不連続領域を特定するためのデータ中心のフレームワークである。
我々は,Data-SUITEの性能保証とカバレッジ保証を実証的に検証する。
論文 参考訳(メタデータ) (2022-02-17T18:58:31Z) - A communication efficient distributed learning framework for smart
environments [0.4898659895355355]
本稿では,データ生成箇所にデータ分析を近づける分散学習フレームワークを提案する。
分散機械学習技術を使用することで、クラウドソリューションに匹敵するパフォーマンスを確保しながら、ネットワークオーバーヘッドを大幅に削減することができる。
分析はまた、ノード上のデータの特定の分布に基づいて、各分散学習アプローチがいつ好ましいかを示す。
論文 参考訳(メタデータ) (2021-09-27T13:44:34Z) - Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing [97.44152794234405]
教師なしクロスモーダルハッシュ(UCMH)は近年ホットトピックとなっている。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
DGCPNは3種類のデータ類似性を利用して、損失を保存する包括的な類似性を管理する。
論文 参考訳(メタデータ) (2020-12-25T07:40:59Z) - Anonymizing Sensor Data on the Edge: A Representation Learning and
Transformation Approach [4.920145245773581]
本稿では,データ難読化に有用な低次元表現を学習することで,ユーティリティとプライバシ損失のトレードオフを検討することを目的とする。
本稿では,時系列データを合成するための変分オートエンコーダの潜時空間における決定論的および確率的変換を提案する。
リソース制約のあるエッジデバイス上で,データをリアルタイムに匿名化できることを示す。
論文 参考訳(メタデータ) (2020-11-16T22:32:30Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。