論文の概要: Communication-Efficient and Privacy-Adaptable Mechanism -- a Federated Learning Scheme with Convergence Analysis
- arxiv url: http://arxiv.org/abs/2601.10701v1
- Date: Thu, 15 Jan 2026 18:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.284319
- Title: Communication-Efficient and Privacy-Adaptable Mechanism -- a Federated Learning Scheme with Convergence Analysis
- Title(参考訳): コミュニケーション効率とプライバシ適応メカニズム - 収束分析を用いたフェデレーション学習方式
- Authors: Chun Hei Michael Shiu, Chih Wei Ling,
- Abstract要約: フェデレートされた学習は、複数のパーティが、自身の基盤となるデータを共有することなく、共同で学習モデルをトレーニングすることを可能にする。
最近の研究は、CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しいアプローチを導入している。
CEPAMのプライバシー保証と収束特性を理論的に解析する。
- 参考スコア(独自算出の注目度): 4.726777092009554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning enables multiple parties to jointly train learning models without sharing their own underlying data, offering a practical pathway to privacy-preserving collaboration under data-governance constraints. Continued study of federated learning is essential to address key challenges in it, including communication efficiency and privacy protection between parties. A recent line of work introduced a novel approach called the Communication-Efficient and Privacy-Adaptable Mechanism (CEPAM), which achieves both objectives simultaneously. CEPAM leverages the rejection-sampled universal quantizer (RSUQ), a randomized vector quantizer whose quantization error is equivalent to a prescribed noise, which can be tuned to customize privacy protection between parties. In this work, we theoretically analyze the privacy guarantees and convergence properties of CEPAM. Moreover, we assess CEPAM's utility performance through experimental evaluations, including convergence profiles compared with other baselines, and accuracy-privacy trade-offs between different parties.
- Abstract(参考訳): フェデレーション学習は、複数のパーティが自身の基盤となるデータを共有することなく、学習モデルを共同でトレーニングすることを可能にし、データガバナンスの制約の下で、プライバシ保護コラボレーションの実践的な経路を提供する。
連帯学習の継続的な研究は、当事者間のコミュニケーション効率やプライバシー保護など、その重要な課題に対処するために不可欠である。
最近の研究は、CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しいアプローチを導入し、両方の目的を同時に達成している。
CEPAMは、量子化誤差が所定のノイズと等価であるランダム化されたベクトル量子化器(RSUQ)を利用しており、当事者間のプライバシー保護をカスタマイズすることができる。
本研究では,CEPAMのプライバシー保証と収束特性を理論的に解析する。
さらに, CEPAM の実用性評価は, コンバージェンスプロファイルを他のベースラインと比較し, 異なるパーティ間での精度・プライバシトレードオフなど, 実験的評価によって評価する。
関連論文リスト
- Federated Attention: A Distributed Paradigm for Collaborative LLM Inference over Edge Networks [63.541114376141735]
大規模言語モデル(LLM)は、さまざまなアプリケーションシナリオにまたがってインテリジェントな機能を提供しながら、急速に普及しています。
しかし、彼らの共同シナリオにおける実践的なデプロイは、プライバシの脆弱性、通信オーバーヘッド、計算ボトルネックといった根本的な課題に直面します。
我々はフェデレート・アテンション(FedAttn)を提案し、フェデレーション・パラダイムを自己注意機構に統合する。
論文 参考訳(メタデータ) (2025-11-04T15:14:58Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - No free lunch theorem for security and utility in federated learning [20.481170500480395]
複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
論文 参考訳(メタデータ) (2022-03-11T09:48:29Z) - ppAURORA: Privacy Preserving Area Under Receiver Operating
Characteristic and Precision-Recall Curves [1.933681537640272]
AUCは、異なる機械学習モデルの品質を比較するためのパフォーマンス指標である。
ラベルにはプライバシーに敏感な情報も含まれているため、グローバルAUCを計算することも問題になる可能性がある。
我々は、複数のソースから個別にソートされたリストをプライベートにマージし、正確なAUCを計算するMPCベースのソリューションpAURORAを提案する。
論文 参考訳(メタデータ) (2021-02-17T14:30:22Z) - An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging [0.0]
我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
論文 参考訳(メタデータ) (2020-06-12T14:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。