論文の概要: Communication-Efficient and Privacy-Adaptable Mechanism -- a Federated Learning Scheme with Convergence Analysis
- arxiv url: http://arxiv.org/abs/2601.10701v1
- Date: Thu, 15 Jan 2026 18:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.284319
- Title: Communication-Efficient and Privacy-Adaptable Mechanism -- a Federated Learning Scheme with Convergence Analysis
- Title(参考訳): コミュニケーション効率とプライバシ適応メカニズム - 収束分析を用いたフェデレーション学習方式
- Authors: Chun Hei Michael Shiu, Chih Wei Ling,
- Abstract要約: フェデレートされた学習は、複数のパーティが、自身の基盤となるデータを共有することなく、共同で学習モデルをトレーニングすることを可能にする。
最近の研究は、CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しいアプローチを導入している。
CEPAMのプライバシー保証と収束特性を理論的に解析する。
- 参考スコア(独自算出の注目度): 4.726777092009554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning enables multiple parties to jointly train learning models without sharing their own underlying data, offering a practical pathway to privacy-preserving collaboration under data-governance constraints. Continued study of federated learning is essential to address key challenges in it, including communication efficiency and privacy protection between parties. A recent line of work introduced a novel approach called the Communication-Efficient and Privacy-Adaptable Mechanism (CEPAM), which achieves both objectives simultaneously. CEPAM leverages the rejection-sampled universal quantizer (RSUQ), a randomized vector quantizer whose quantization error is equivalent to a prescribed noise, which can be tuned to customize privacy protection between parties. In this work, we theoretically analyze the privacy guarantees and convergence properties of CEPAM. Moreover, we assess CEPAM's utility performance through experimental evaluations, including convergence profiles compared with other baselines, and accuracy-privacy trade-offs between different parties.
- Abstract(参考訳): フェデレーション学習は、複数のパーティが自身の基盤となるデータを共有することなく、学習モデルを共同でトレーニングすることを可能にし、データガバナンスの制約の下で、プライバシ保護コラボレーションの実践的な経路を提供する。
連帯学習の継続的な研究は、当事者間のコミュニケーション効率やプライバシー保護など、その重要な課題に対処するために不可欠である。
最近の研究は、CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しいアプローチを導入し、両方の目的を同時に達成している。
CEPAMは、量子化誤差が所定のノイズと等価であるランダム化されたベクトル量子化器(RSUQ)を利用しており、当事者間のプライバシー保護をカスタマイズすることができる。
本研究では,CEPAMのプライバシー保証と収束特性を理論的に解析する。
さらに, CEPAM の実用性評価は, コンバージェンスプロファイルを他のベースラインと比較し, 異なるパーティ間での精度・プライバシトレードオフなど, 実験的評価によって評価する。
関連論文リスト
- Federated Attention: A Distributed Paradigm for Collaborative LLM Inference over Edge Networks [63.541114376141735]
大規模言語モデル(LLM)は、さまざまなアプリケーションシナリオにまたがってインテリジェントな機能を提供しながら、急速に普及しています。
しかし、彼らの共同シナリオにおける実践的なデプロイは、プライバシの脆弱性、通信オーバーヘッド、計算ボトルネックといった根本的な課題に直面します。
我々はフェデレート・アテンション(FedAttn)を提案し、フェデレーション・パラダイムを自己注意機構に統合する。
論文 参考訳(メタデータ) (2025-11-04T15:14:58Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - ppAURORA: Privacy Preserving Area Under Receiver Operating
Characteristic and Precision-Recall Curves [1.933681537640272]
AUCは、異なる機械学習モデルの品質を比較するためのパフォーマンス指標である。
ラベルにはプライバシーに敏感な情報も含まれているため、グローバルAUCを計算することも問題になる可能性がある。
我々は、複数のソースから個別にソートされたリストをプライベートにマージし、正確なAUCを計算するMPCベースのソリューションpAURORAを提案する。
論文 参考訳(メタデータ) (2021-02-17T14:30:22Z) - An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging [0.0]
我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
論文 参考訳(メタデータ) (2020-06-12T14:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。