論文の概要: Near-optimal Differentially Private Client Selection in Federated
Settings
- arxiv url: http://arxiv.org/abs/2310.09370v1
- Date: Fri, 13 Oct 2023 19:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:42:27.589439
- Title: Near-optimal Differentially Private Client Selection in Federated
Settings
- Title(参考訳): フェデレーション設定における準最適微分プライベートクライアントの選択
- Authors: Syed Eqbal Alam, Dhirendra Shukla, and Shrisha Rao
- Abstract要約: クライアントが中央サーバと協調してタスクを完了させるフェデレートネットワークを考える。
クライアントは、自分の好みに基づいて、タイムステップで参加するかどうかを決定する。
開発したアルゴリズムは,長期平均参加よりもクライアントに最適に近い値を提供する。
- 参考スコア(独自算出の注目度): 3.58439716487063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop an iterative differentially private algorithm for client selection
in federated settings. We consider a federated network wherein clients
coordinate with a central server to complete a task; however, the clients
decide whether to participate or not at a time step based on their preferences
-- local computation and probabilistic intent. The algorithm does not require
client-to-client information exchange. The developed algorithm provides
near-optimal values to the clients over long-term average participation with a
certain differential privacy guarantee. Finally, we present the experimental
results to check the algorithm's efficacy.
- Abstract(参考訳): フェデレーション設定におけるクライアント選択のための反復微分プライベートアルゴリズムを開発した。
我々は、クライアントがタスクを完了させるために中央サーバと協調するフェデレートネットワークを考えるが、クライアントは、ローカルな計算と確率的意図に基づいて、タイムステップで参加するかどうかを決定する。
このアルゴリズムはクライアントからクライアントへの情報交換を必要としない。
開発したアルゴリズムは、特定の差分プライバシー保証を伴う長期的な平均的参加よりも、クライアントにほぼ最適値を提供する。
最後に,本アルゴリズムの有効性を確認するために実験結果を示す。
関連論文リスト
- Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - Multi-Criteria Client Selection and Scheduling with Fairness Guarantee
for Federated Learning Service [17.986744632466515]
フェデレートラーニング(FL)は、複数のクライアントが生のトレーニングデータを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
公平性を保証するマルチ基準クライアント選択とスケジューリング方式を提案する。
我々のスキームは、特にデータが非IDである場合、モデル品質を改善することができる。
論文 参考訳(メタデータ) (2023-12-05T16:56:24Z) - Provably Personalized and Robust Federated Learning [47.50663360022456]
類似したクライアントのクラスタを識別し、パーソナライズされたモデルパークラスタを訓練する簡単なアルゴリズムを提案する。
アルゴリズムの収束率は、クライアントの真の基盤となるクラスタリングを知っていれば得られるものと一致します。
論文 参考訳(メタデータ) (2023-06-14T09:37:39Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Decentralized adaptive clustering of deep nets is beneficial for client
collaboration [0.7012240324005975]
分散ピアツーピア環境における個別のディープラーニングモデルを学習する際の課題について検討する。
我々のコントリビューションは、各クライアントがローカルタスクの類似度推定に基づいて有益な協調を見出すアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T15:38:31Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Client Selection Approach in Support of Clustered Federated Learning
over Wireless Edge Networks [2.6774008509840996]
CFL(Clustered Federated Multitask Learning)は、信頼性の高い専門モデルを得るための効率的なスキームとして導入された。
本稿では,特殊な機械学習モデルを得るための収束率の向上を目的とした,新しいクライアント選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T21:38:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。