論文の概要: Exact Support Recovery in Federated Regression with One-shot
Communication
- arxiv url: http://arxiv.org/abs/2006.12583v1
- Date: Mon, 22 Jun 2020 19:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:12:31.716221
- Title: Exact Support Recovery in Federated Regression with One-shot
Communication
- Title(参考訳): ワンショットコミュニケーションによるFederated Regressionの厳格なサポート回復
- Authors: Adarsh Barik, Jean Honorio
- Abstract要約: フェデレーション学習は、分散コンピューティング、データオーナシップ、プライバシといった課題に対処するためのフレームワークを提供する。
正確なサポートを計算するために,集中型サーバとのワンショット通信しか必要としない単純な通信アルゴリズムを提供する。
本手法では,クライアントが任意の最適化問題を解く必要はなく,計算能力の低いデバイスでも実行可能である。
- 参考スコア(独自算出の注目度): 31.061339148448006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning provides a framework to address the challenges of
distributed computing, data ownership and privacy over a large number of
distributed clients with low computational and communication capabilities. In
this paper, we study the problem of learning the exact support of sparse linear
regression in the federated learning setup. We provide a simple communication
efficient algorithm which only needs one-shot communication with the
centralized server to compute the exact support. Our method does not require
the clients to solve any optimization problem and thus, can be run on devices
with low computational capabilities. Our method is naturally robust to the
problems of client failure, model poisoning and straggling clients. We formally
prove that our method requires a number of samples per client that is
polynomial with respect to the support size, but independent of the dimension
of the problem. We require the number of distributed clients to be logarithmic
in the dimension of the problem. If the predictor variables are mutually
independent then the overall sample complexity matches the optimal sample
complexity of the non-federated centralized setting. Furthermore, our method is
easy to implement and has an overall polynomial time complexity.
- Abstract(参考訳): フェデレーション学習(federated learning)は、分散コンピューティングやデータ所有、プライバシといった課題に対して、計算能力と通信能力の低い多数の分散クライアント上で対処するためのフレームワークを提供する。
本稿では,フェデレーション学習におけるスパース線形回帰の正確なサポートを学習する問題について検討する。
集中型サーバとのワンショット通信だけで正確なサポートを計算できる簡易な通信効率のよいアルゴリズムを提供する。
本手法では,クライアントが任意の最適化問題を解く必要はなく,計算能力の低いデバイスでも実行可能である。
当社の手法は、クライアントの失敗、モデル中毒、およびクラスタリングクライアントの問題に対して自然に堅牢である。
我々は,本手法がサポートサイズに対して多項式であるクライアント毎に多数のサンプルを必要とすることを正式に証明するが,問題の大きさには依存しない。
問題の次元において、分散クライアントの数を対数にする必要がある。
予測変数が互いに独立であれば、全体のサンプル複雑性は、非フェデレーション集中設定の最適なサンプル複雑性に一致する。
さらに,本手法は実装が容易で,多項式時間の複雑さも大きい。
関連論文リスト
- Cohort Squeeze: Beyond a Single Communication Round per Cohort in Cross-Device Federated Learning [51.560590617691005]
各コホートから「より多くのジュースを抽出できるかどうか」を単一の通信ラウンドでできることよりも検討する。
本手法は,デバイス間通信におけるFLモデルのトレーニングに必要な通信コストを最大74%削減する。
論文 参考訳(メタデータ) (2024-06-03T08:48:49Z) - On the Necessity of Collaboration for Online Model Selection with Decentralized Data [53.244188985271606]
我々は,100万ドル以上の分散データを用いたオンラインモデル選択について検討し,クライアント間のコラボレーションの必要性について検討する。
i) クライアント上の計算コストが$o(K)$に制限された場合, (ii) クライアント上での計算制約がない場合, (i) 協調は不要であり, (ii) クライアント上での計算コストは$o(K)$に制限される。
論文 参考訳(メタデータ) (2024-04-15T06:32:28Z) - Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - An Incentive Mechanism for Federated Learning Based on Multiple Resource
Exchange [5.385462087305977]
Federated Learning(FL)は、機械学習におけるプライバシー問題に対処する分散機械学習パラダイムである。
ユーザをモデルオーナ(MO)とデータオーナ(DO)の2つの役割に分類する。
提案した協調計算フレームワークは、FLタスクの完了までの全体の時間を最小化しつつ、95%以上の精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-13T12:28:37Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Federated Gradient Matching Pursuit [17.695717854068715]
従来の機械学習技術では、1つのサーバまたはデータハブ上のすべてのトレーニングデータを集中化する必要がある。
特に、FL(Federated Learning)は、ローカルクライアントでトレーニングデータを保持しながら、共有モデルを学習するためのソリューションを提供する。
本稿では,FL設定における分散制約最小化問題を解くために,新しいアルゴリズムフレームワークFedGradMPを提案する。
論文 参考訳(メタデータ) (2023-02-20T16:26:29Z) - Federated Learning with Regularized Client Participation [1.433758865948252]
Federated Learning(FL)は、複数のクライアントが協力して機械学習タスクを解決する分散機械学習アプローチである。
FLの主な課題の1つは、多くのクライアントがトレーニングプロセスに関与しているときに発生する部分的な参加の問題である。
本稿では,新しい手法を提案し,新しいクライアント参加方式を設計する。
論文 参考訳(メタデータ) (2023-02-07T18:26:07Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - FedChain: Chained Algorithms for Near-Optimal Communication Cost in
Federated Learning [24.812767482563878]
フェデレートラーニング(FL)は、多くのクライアントに分散した異種データ上でモデルをトレーニングする際のコミュニケーションの複雑さを最小限にすることを目的としている。
本稿では,局所的手法と大域的手法の強みを組み合わせたアルゴリズムフレームワークであるFedChainを提案する。
論文 参考訳(メタデータ) (2021-08-16T02:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。