論文の概要: Near-optimal Differentially Private Client Selection in Federated
Settings
- arxiv url: http://arxiv.org/abs/2310.09370v1
- Date: Fri, 13 Oct 2023 19:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:42:27.589439
- Title: Near-optimal Differentially Private Client Selection in Federated
Settings
- Title(参考訳): フェデレーション設定における準最適微分プライベートクライアントの選択
- Authors: Syed Eqbal Alam, Dhirendra Shukla, and Shrisha Rao
- Abstract要約: クライアントが中央サーバと協調してタスクを完了させるフェデレートネットワークを考える。
クライアントは、自分の好みに基づいて、タイムステップで参加するかどうかを決定する。
開発したアルゴリズムは,長期平均参加よりもクライアントに最適に近い値を提供する。
- 参考スコア(独自算出の注目度): 3.58439716487063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop an iterative differentially private algorithm for client selection
in federated settings. We consider a federated network wherein clients
coordinate with a central server to complete a task; however, the clients
decide whether to participate or not at a time step based on their preferences
-- local computation and probabilistic intent. The algorithm does not require
client-to-client information exchange. The developed algorithm provides
near-optimal values to the clients over long-term average participation with a
certain differential privacy guarantee. Finally, we present the experimental
results to check the algorithm's efficacy.
- Abstract(参考訳): フェデレーション設定におけるクライアント選択のための反復微分プライベートアルゴリズムを開発した。
我々は、クライアントがタスクを完了させるために中央サーバと協調するフェデレートネットワークを考えるが、クライアントは、ローカルな計算と確率的意図に基づいて、タイムステップで参加するかどうかを決定する。
このアルゴリズムはクライアントからクライアントへの情報交換を必要としない。
開発したアルゴリズムは、特定の差分プライバシー保証を伴う長期的な平均的参加よりも、クライアントにほぼ最適値を提供する。
最後に,本アルゴリズムの有効性を確認するために実験結果を示す。
関連論文リスト
- Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - Multi-Criteria Client Selection and Scheduling with Fairness Guarantee
for Federated Learning Service [17.986744632466515]
フェデレートラーニング(FL)は、複数のクライアントが生のトレーニングデータを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
公平性を保証するマルチ基準クライアント選択とスケジューリング方式を提案する。
我々のスキームは、特にデータが非IDである場合、モデル品質を改善することができる。
論文 参考訳(メタデータ) (2023-12-05T16:56:24Z) - Provably Personalized and Robust Federated Learning [47.50663360022456]
類似したクライアントのクラスタを識別し、パーソナライズされたモデルパークラスタを訓練する簡単なアルゴリズムを提案する。
アルゴリズムの収束率は、クライアントの真の基盤となるクラスタリングを知っていれば得られるものと一致します。
論文 参考訳(メタデータ) (2023-06-14T09:37:39Z) - FilFL: Client Filtering for Optimized Client Participation in Federated
Learning [95.27347185031265]
クライアントフィルタリングを導入し,クライアント参加とトレーニングを最適化する新たなアプローチであるFilFLを提案する。
FilFLは利用可能なクライアントを定期的にフィルタリングし、効率的なグリーディフィルタリングアルゴリズムを用いて目的関数を最大化するサブセットを特定する。
実験の結果,学習効率の向上,収束の高速化,テスト精度の最大10%向上など,我々のアプローチのメリットを実証した。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Decentralized adaptive clustering of deep nets is beneficial for client
collaboration [0.7012240324005975]
分散ピアツーピア環境における個別のディープラーニングモデルを学習する際の課題について検討する。
我々のコントリビューションは、各クライアントがローカルタスクの類似度推定に基づいて有益な協調を見出すアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T15:38:31Z) - Clustered Scheduling and Communication Pipelining For Efficient Resource
Management Of Wireless Federated Learning [6.753282396352072]
本稿では,コミュニケーションパイプラインを用いて,フェデレート学習の無線スペクトル利用効率と収束速度を向上させることを提案する。
我々は、異なる設定下で最適なクライアントクラスタリングのための汎用的な定式化を行い、最適解を得るための効率的なアルゴリズムを解析的に導出する。
論文 参考訳(メタデータ) (2022-06-15T16:23:19Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Client Selection Approach in Support of Clustered Federated Learning
over Wireless Edge Networks [2.6774008509840996]
CFL(Clustered Federated Multitask Learning)は、信頼性の高い専門モデルを得るための効率的なスキームとして導入された。
本稿では,特殊な機械学習モデルを得るための収束率の向上を目的とした,新しいクライアント選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T21:38:22Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。