論文の概要: Fluid Democracy in Federated Data Aggregation
- arxiv url: http://arxiv.org/abs/2507.02710v1
- Date: Thu, 03 Jul 2025 15:26:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.498293
- Title: Fluid Democracy in Federated Data Aggregation
- Title(参考訳): フェデレーションデータ集合における流体民主主義
- Authors: Aditya Vema Reddy Kesari, Krishna Reddy Kesari,
- Abstract要約: フェデレートラーニング(FL)メカニズムは通常、各クライアントが重みを中央サーバーに転送する必要がある。
本稿では,各データ転送ステップにおいて最も有用なモデル重み付きクライアントのサブセットを特定するためのコンセンサスベースのプロトコルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) mechanisms typically require each client to transfer their weights to a central server, irrespective of how useful they are. In order to avoid wasteful data transfer costs from clients to the central server, we propose the use of consensus based protocols to identify a subset of clients with most useful model weights at each data transfer step. First, we explore the application of existing fluid democracy protocols to FL from a performance standpoint, comparing them with traditional one-person-one-vote (also known as 1p1v or FedAvg). We propose a new fluid democracy protocol named viscous-retained democracy that always does better than 1p1v under the same assumptions as existing fluid democracy protocols while also not allowing for influence accumulation. Secondly, we identify weaknesses of fluid democracy protocols from an adversarial lens in terms of their dependence on topology and/ or number of adversaries required to negatively impact the global model weights. To this effect, we propose an algorithm (FedVRD) that dynamically limits the effect of adversaries while minimizing cost by leveraging the delegation topology.
- Abstract(参考訳): フェデレートラーニング(FL)メカニズムは一般的に、各クライアントがどれだけ有用であっても、重みを中央サーバに転送する必要がある。
クライアントから中央サーバへのデータ転送コストの無駄を避けるため,各データ転送ステップにおいて最も有用なモデル重み付きクライアントのサブセットを特定するためのコンセンサスベースのプロトコルを提案する。
まず,従来の1対1の投票(1p1v あるいは FedAvg とも呼ばれる)と比較し,既存の流動民主主義プロトコルをパフォーマンスの観点からFLに適用することを検討する。
我々は,既存の流動型民主主義プロトコルと同じ仮定で常に1p1v以上を達成できる,粘性保持型民主主義という新しい流動型民主主義プロトコルを提案する。
第2に, 対向レンズによる流体民主主義プロトコルの弱点を, 地球モデル重みに悪影響を及ぼすのに必要なトポロジーおよび/または敵の数に依存するという点で同定する。
そこで本研究では,提案手法を応用して,コストを最小化しつつ,敵の効果を動的に制限するアルゴリズム(FedVRD)を提案する。
関連論文リスト
- FedConv: A Learning-on-Model Paradigm for Heterogeneous Federated Clients [25.847042398060616]
フェデレートラーニング(FL)は、クライアントのプライベートデータを公開せずに、共有グローバルモデルの協調トレーニングを容易にする。
我々は、リソース制約のあるクライアントの計算とメモリ負荷を最小限に抑えるクライアントフレンドリーなFLフレームワークであるFedConvを提案する。
モデル精度,計算量,通信オーバヘッドの観点から,FedConvは最先端のFLシステムより優れていることを示す。
論文 参考訳(メタデータ) (2025-02-28T01:39:53Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。