論文の概要: Device Heterogeneity in Federated Learning: A Superquantile Approach
- arxiv url: http://arxiv.org/abs/2002.11223v1
- Date: Tue, 25 Feb 2020 23:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:18:52.771894
- Title: Device Heterogeneity in Federated Learning: A Superquantile Approach
- Title(参考訳): フェデレーション学習におけるデバイス不均一性:超等価アプローチ
- Authors: Yassine Laguel, Krishna Pillutla, J\'er\^ome Malick, Zaid Harchaoui
- Abstract要約: 人口データ分布に適合しない異種クライアントデバイスを扱うためのフレームワークを提案する。
最適化アルゴリズムを提案し、定常点への収束を確立する。
ニューラルネットワークとコンピュータビジョンと自然言語処理のタスクの線形モデルに関する数値実験で結論付ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a federated learning framework to handle heterogeneous client
devices which do not conform to the population data distribution. The approach
hinges upon a parameterized superquantile-based objective, where the parameter
ranges over levels of conformity. We present an optimization algorithm and
establish its convergence to a stationary point. We show how to practically
implement it using secure aggregation by interleaving iterations of the usual
federated averaging method with device filtering. We conclude with numerical
experiments on neural networks as well as linear models on tasks from computer
vision and natural language processing.
- Abstract(参考訳): 本研究では,人口分布に適合しない異種クライアントデバイスを扱うためのフェデレーション学習フレームワークを提案する。
このアプローチはパラメータ化された超量子的目的に基づいており、パラメータは適合性のレベルを越えている。
最適化アルゴリズムを提案し、定常点への収束を確立する。
本稿では, デバイスフィルタを用いた一般のフェデレーション平均化手法の繰り返しをインターリーブすることで, 安全なアグリゲーションによる実装方法を示す。
結論として,ニューラルネットワークの数値実験と,コンピュータビジョンや自然言語処理のタスクにおける線形モデルについて考察した。
関連論文リスト
- Towards Hyper-parameter-free Federated Learning [1.3682156035049038]
グローバルモデル更新の自動スケーリングのためのアルゴリズムを導入する。
第1のアルゴリズムでは、クライアントにおける降下検知ステップサイズ体制が、サーバの目的に対して降下を保証することが保証される。
第2のアルゴリズムは、サンプリングされたクライアントの目的値の平均値が、スケーリング係数を計算するのに必要な値サーバの実用的で効果的な代用であることを示している。
論文 参考訳(メタデータ) (2024-08-30T09:35:36Z) - Random Aggregate Beamforming for Over-the-Air Federated Learning in Large-Scale Networks [66.18765335695414]
本稿では,アグリゲーションエラーを最小限に抑え,選択したデバイス数を最大化する目的で,共同装置の選択とアグリゲーションビームフォーミング設計について検討する。
コスト効率のよい方法でこの問題に取り組むために,ランダムな集合ビームフォーミング方式を提案する。
また, 得られた集計誤差と, デバイス数が大きい場合に選択したデバイス数についても解析を行った。
論文 参考訳(メタデータ) (2024-02-20T23:59:45Z) - Scalable Hierarchical Over-the-Air Federated Learning [3.8798345704175534]
この研究は、干渉とデバイスデータの不均一性の両方を扱うために設計された新しい2段階学習手法を導入する。
本稿では,提案アルゴリズムの収束を導出するための包括的数学的アプローチを提案する。
干渉とデータの不均一性にもかかわらず、提案アルゴリズムは様々なパラメータに対して高い学習精度を実現する。
論文 参考訳(メタデータ) (2022-11-29T12:46:37Z) - Heterogeneous Federated Learning on a Graph [9.135254524746847]
ローカルデータを共有せずに複数の分散デバイスでアルゴリズムをトレーニングするフェデレーション学習は、機械学習の実践でますます人気を集めている。
本研究では,データ分散と通信の不均一性を伴うフェデレート学習繰り返しにおけるパラメータ推定と,ローカル機器の計算能力の制限について考察する。
我々のアルゴリズムは収束率$O(T-1log T)$で$G$のエッジに沿ってパラメータのみを送信する。
論文 参考訳(メタデータ) (2022-09-19T03:18:10Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Tackling the Objective Inconsistency Problem in Heterogeneous Federated
Optimization [93.78811018928583]
本稿では、フェデレートされた異種最適化アルゴリズムの収束性を分析するためのフレームワークを提供する。
我々は,高速な誤差収束を保ちながら,客観的な矛盾を解消する正規化平均化手法であるFedNovaを提案する。
論文 参考訳(メタデータ) (2020-07-15T05:01:23Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。