論文の概要: Collaborative Mean Estimation over Intermittently Connected Networks
with Peer-To-Peer Privacy
- arxiv url: http://arxiv.org/abs/2303.00035v1
- Date: Tue, 28 Feb 2023 19:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 17:05:42.914670
- Title: Collaborative Mean Estimation over Intermittently Connected Networks
with Peer-To-Peer Privacy
- Title(参考訳): ピアツーピアプライバシを用いた間欠接続ネットワークにおける協調平均推定
- Authors: Rajarshi Saha, Mohamed Seif, Michal Yemini, Andrea J. Goldsmith, H.
Vincent Poor
- Abstract要約: 本研究は、断続接続を有するネットワーク上での分散平均推定(DME)の問題について考察する。
目標は、中央サーバの助けを借りて、分散ノード間でローカライズされたデータサンプルに関するグローバル統計を学習することだ。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
- 参考スコア(独自算出の注目度): 86.61829236732744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work considers the problem of Distributed Mean Estimation (DME) over
networks with intermittent connectivity, where the goal is to learn a global
statistic over the data samples localized across distributed nodes with the
help of a central server. To mitigate the impact of intermittent links, nodes
can collaborate with their neighbors to compute local consensus which they
forward to the central server. In such a setup, the communications between any
pair of nodes must satisfy local differential privacy constraints. We study the
tradeoff between collaborative relaying and privacy leakage due to the
additional data sharing among nodes and, subsequently, propose a novel
differentially private collaborative algorithm for DME to achieve the optimal
tradeoff. Finally, we present numerical simulations to substantiate our
theoretical findings.
- Abstract(参考訳): 本研究は,分散ノード間でローカライズされたデータサンプルに対して,中央サーバの助けを借りてグローバル統計値を学ぶことを目的とした,間欠接続を持つネットワーク上での分散平均推定(dme)の問題を考える。
間欠リンクの影響を軽減するために、ノードは隣人と協調して、中央サーバに転送するローカルコンセンサスを計算することができる。
このようなセットアップでは、任意のノード間の通信は、ローカルな差分プライバシー制約を満たす必要がある。
ノード間のデータ共有による協調中継とプライバシリークのトレードオフについて検討し、その後、最適なトレードオフを実現するためにDMEのための新たな個人共同アルゴリズムを提案する。
最後に,理論的な知見を裏付ける数値シミュレーションを行う。
関連論文リスト
- Networked Communication for Mean-Field Games with Function Approximation and Empirical Mean-Field Estimation [59.01527054553122]
分散エージェントは、経験的システムの単一かつ非エポゾディックな実行から平均フィールドゲームにおける平衡を学ぶことができる。
既存の設定に関数近似を導入し,Munchausen Online Mirror Descent 方式で描画する。
また, エージェントが局所的な周辺地域に基づいて, グローバルな経験分布を推定できる新しいアルゴリズムも提供する。
論文 参考訳(メタデータ) (2024-08-21T13:32:46Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Attention Based Feature Fusion For Multi-Agent Collaborative Perception [4.120288148198388]
グラフアテンションネットワーク(GAT)の形での中間的協調認識ソリューションを提案する。
提案手法は,複数の連結エージェント間で交換される中間表現を融合するアテンションベースのアグリゲーション戦略を開発する。
このアプローチは、チャネルレベルと空間レベルの中間特徴写像における重要な領域を適応的に強調することにより、オブジェクト検出精度が向上する。
論文 参考訳(メタデータ) (2023-05-03T12:06:11Z) - Robust Federated Learning with Connectivity Failures: A
Semi-Decentralized Framework with Collaborative Relaying [27.120495678791883]
断続的なクライアント接続は、集中型フェデレーションエッジ学習フレームワークにおける大きな課題の1つです。
協調リレーに基づく半分散型エッジ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-24T01:06:42Z) - RelaySum for Decentralized Deep Learning on Heterogeneous Data [71.36228931225362]
分散機械学習では、労働者はローカルデータのモデル更新を計算する。
労働者は中心的な調整なしに隣人とのみ通信するため、これらの更新はネットワーク上で徐々に伝播する。
このパラダイムは、全接続のないネットワーク上での分散トレーニングを可能にし、データのプライバシ保護と、データセンタでの分散トレーニングの通信コストの削減を支援する。
論文 参考訳(メタデータ) (2021-10-08T14:55:32Z) - Two-Bit Aggregation for Communication Efficient and Differentially
Private Federated Learning [79.66767935077925]
フェデレートラーニング(FL)では、機械学習モデルは、データをローカルに保ち、他のノードと共有しない状態で、複数のノードで分散的にトレーニングされる。
ノードからサーバに送信された情報は、各ノードのローカルデータの詳細を明らかにする可能性があるため、プライバシー上の懸念が生じる。
差分プライバシーを保証し、アップリンク通信オーバーヘッドを低減した2ビットアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-06T19:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。