論文の概要: Decentralized Entropic Optimal Transport for Privacy-preserving
Distributed Distribution Comparison
- arxiv url: http://arxiv.org/abs/2301.12065v1
- Date: Sat, 28 Jan 2023 02:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:12:55.424853
- Title: Decentralized Entropic Optimal Transport for Privacy-preserving
Distributed Distribution Comparison
- Title(参考訳): プライバシー保護分散比較のための分散エントロピー最適輸送
- Authors: Xiangfeng Wang and Hongteng Xu and Moyi Yang
- Abstract要約: プライバシを保存する分散分散比較は、分散システム内のさまざまなエージェントに分散した分散間の距離を測定する。
本稿では,プライバシー保護と通信効率を両立させる分散エントロピー最適化トランスポート(EOT)手法を提案する。
合成データと実世界の分散ドメイン適応タスクの実験により,本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 24.778440770184364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving distributed distribution comparison measures the distance
between the distributions whose data are scattered across different agents in a
distributed system and cannot be shared among the agents. In this study, we
propose a novel decentralized entropic optimal transport (EOT) method, which
provides a privacy-preserving and communication-efficient solution to this
problem with theoretical guarantees. In particular, we design a mini-batch
randomized block-coordinate descent (MRBCD) scheme to optimize the
decentralized EOT distance in its dual form. The dual variables are scattered
across different agents and updated locally and iteratively with limited
communications among partial agents. The kernel matrix involved in the
gradients of the dual variables is estimated by a distributed kernel
approximation method, and each agent only needs to approximate and store a
sub-kernel matrix by one-shot communication and without sharing raw data. We
analyze our method's communication complexity and provide a theoretical bound
for the approximation error caused by the convergence error, the approximated
kernel, and the mismatch between the storage and communication protocols.
Experiments on synthetic data and real-world distributed domain adaptation
tasks demonstrate the effectiveness of our method.
- Abstract(参考訳): プライバシ保護分散比較(privacy-preserving distributed distribution comparison)は、データが分散システム内の異なるエージェントに分散され、エージェント間で共有できないディストリビューション間の距離を測定する。
本研究では,プライバシ保護と通信効率の両立を理論的に保証した,新しい分散エントロピー最適輸送法(eot)を提案する。
特に,最小バッチランダム化ブロック座標降下法(MRBCD)を設計し,分散EOT距離を2倍に最適化する。
二重変数は異なるエージェントに分散し、部分エージェント間の限られた通信でローカルかつ反復的に更新される。
双対変数の勾配に関与するカーネル行列を分散カーネル近似法により推定し、各エージェントは一発の通信でサブカーネル行列を近似して保存するだけで、生データを共有できる。
本稿では,本手法の通信複雑性を解析し,収束誤差,近似カーネル,ストレージと通信プロトコル間のミスマッチに起因する近似誤差の理論的バウンダリを提供する。
合成データと実世界の分散ドメイン適応タスクの実験により,本手法の有効性が示された。
関連論文リスト
- Non-asymptotic Convergence of Discrete-time Diffusion Models: New
Approach and Improved Rate [54.596887384531236]
我々は離散時間拡散モデルの下で、分布のかなり大きなクラスに対する収束保証を確立する。
パラメータ依存を明示した分布の興味深いクラスに対して,結果の専門化を行う。
本稿では,新しい加速サンプリング器を提案し,対応する正則サンプリング器の収束率を桁違いに向上することを示す。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Distributed Bayesian Estimation in Sensor Networks: Consensus on
Marginal Densities [15.038649101409804]
連続変数上の確率分布の関数空間において、確率的確率的アルゴリズムを導出する。
これらの結果を利用して、個々のエージェントが観測する変数のサブセットに制限された新しい分散推定器を得る。
これは、協調的なローカライゼーションやフェデレートドラーニングのような応用に関係しており、任意のエージェントで収集されたデータは、関心のあるすべての変数のサブセットに依存する。
論文 参考訳(メタデータ) (2023-12-02T21:10:06Z) - Communication-Efficient Zeroth-Order Distributed Online Optimization:
Algorithm, Theory, and Applications [9.045332526072828]
本稿では,目標追跡のためのフェデレーション学習環境におけるマルチエージェントゼロ階オンライン最適化問題に焦点を当てる。
提案手法は、2つの関連するアプリケーションにおけるエラーとエラーの観点からさらに解析される。
論文 参考訳(メタデータ) (2023-06-09T03:51:45Z) - IPCC-TP: Utilizing Incremental Pearson Correlation Coefficient for Joint
Multi-Agent Trajectory Prediction [73.25645602768158]
IPCC-TPはインクリメンタルピアソン相関係数に基づく新しい関連認識モジュールであり,マルチエージェントインタラクションモデリングを改善する。
我々のモジュールは、既存のマルチエージェント予測手法に便利に組み込んで、元の動き分布デコーダを拡張することができる。
論文 参考訳(メタデータ) (2023-03-01T15:16:56Z) - Collaborative Learning of Distributions under Heterogeneity and
Communication Constraints [35.82172666266493]
機械学習では、ユーザはしばしば、データを生成するディストリビューションを学ぶために協力する必要がある。
まず、ユーザはサーバと通信して中央分布を学習し、協調する。
そして、学習した中央分布を微調整して、ユーザの個々の分布を推定する。
論文 参考訳(メタデータ) (2022-06-01T18:43:06Z) - Cycle Consistent Probability Divergences Across Different Spaces [38.43511529063335]
確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
論文 参考訳(メタデータ) (2021-11-22T16:35:58Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Distributional Sliced Embedding Discrepancy for Incomparable
Distributions [22.615156512223766]
Gromov-Wasserstein (GW) 距離は多様体学習とクロスドメイン学習の鍵となるツールである。
本稿では,分散スライシング,埋め込み,スライスされた分布間の閉形式ワッサーシュタイン距離の計算という2つの計算分布を比較する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T15:11:30Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z) - A Unified Theory of Decentralized SGD with Changing Topology and Local
Updates [70.9701218475002]
分散通信方式の統一収束解析を導入する。
いくつかの応用に対して普遍収束率を導出する。
私たちの証明は弱い仮定に依存している。
論文 参考訳(メタデータ) (2020-03-23T17:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。