論文の概要: Multiple Kernel-Based Online Federated Learning
- arxiv url: http://arxiv.org/abs/2102.10861v1
- Date: Mon, 22 Feb 2021 09:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 00:17:56.312259
- Title: Multiple Kernel-Based Online Federated Learning
- Title(参考訳): 複数カーネルに基づくオンラインフェデレーション学習
- Authors: Jeongmin Chae and Songnam Hong
- Abstract要約: OMKL の非自明な拡張として,新規なマルチカーネルベース OFL (MK-OFL) を提案する。
理論的には、MK-OFLは、後視における最適関数と比較した場合、最適サブ線形後悔境界を達成できる。
- 参考スコア(独自算出の注目度): 15.102346715690755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online federated learning (OFL) becomes an emerging learning framework, in
which edge nodes perform online learning with continuous streaming local data
and a server constructs a global model from the aggregated local models. Online
multiple kernel learning (OMKL), using a preselected set of P kernels, can be a
good candidate for OFL framework as it has provided an outstanding performance
with a low-complexity and scalability. Yet, an naive extension of OMKL into OFL
framework suffers from a heavy communication overhead that grows linearly with
P. In this paper, we propose a novel multiple kernel-based OFL (MK-OFL) as a
non-trivial extension of OMKL, which yields the same performance of the naive
extension with 1/P communication overhead reduction. We theoretically prove
that MK-OFL achieves the optimal sublinear regret bound when compared with the
best function in hindsight. Finally, we provide the numerical tests of our
approach on real-world datasets, which suggests its practicality.
- Abstract(参考訳): オンラインフェデレーション学習(OFL)は、エッジノードが連続的なストリーミングローカルデータでオンライン学習を行い、サーバが集約されたローカルモデルからグローバルモデルを構築する、新たな学習フレームワークとなる。
事前選択されたpカーネルセットを使用したオンラインマルチカーネル学習(omkl)は、低複雑さとスケーラビリティを備えた優れたパフォーマンスを提供するため、oflフレームワークのよい候補となり得る。
本稿では,OMKLの非自明な拡張として,新しいカーネルベースOFL(MK-OFL)を提案する。
理論的には、MK-OFLは、後視における最適関数と比較した場合、最適サブ線形後悔境界を達成できる。
最後に,実世界のデータセットに対するアプローチの数値実験を行い,その実用性を示唆する。
関連論文リスト
- SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Delay-Aware Hierarchical Federated Learning [7.292078085289465]
本稿では,分散機械学習(ML)モデルの学習効率を向上させるために,遅延認識型階層型学習(DFL)を提案する。
グローバル同期の間、クラウドサーバは、凸制御アルゴリズムを使用して、ローカルモデルを時代遅れのグローバルモデルと統合する。
数値評価により、DFLの高速グローバルモデル、収束資源の削減、通信遅延に対する評価において優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-22T09:23:29Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Coresets for Vertical Federated Learning: Regularized Linear Regression
and $K$-Means Clustering [24.51727660771511]
通信効率のよいVFLを実現するために,コアセットを分散的に構築する統合フレームワークを提案する。
VFL設定において、正規化線形回帰と$k$-meansクラスタリングという2つの重要な学習タスクについて検討する。
理論的には、コアセットを使用することで、ソリューションの品質をほぼ維持しながら、通信の複雑さを大幅に軽減できることを示す。
論文 参考訳(メタデータ) (2022-10-26T12:28:53Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge [15.932747809197517]
エッジコンピューティングは、フレキシブルでセキュアでパフォーマンスの良い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
本稿では,中央集約サーバを空飛ぶマスタに置き換えるための戦略を詳細に検討する。
本研究は,EdgeAIテストベッドおよび実5Gネットワーク上で実施した測定結果から,空飛ぶマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
論文 参考訳(メタデータ) (2021-12-21T19:04:42Z) - Context-Aware Online Client Selection for Hierarchical Federated
Learning [33.205640790962505]
フェデレートラーニング(FL)は、データプライバシ問題に対処するための魅力的なフレームワークだと考えられている。
フェデレートラーニング(FL)は、データプライバシ問題に対処するための魅力的なフレームワークだと考えられている。
論文 参考訳(メタデータ) (2021-12-02T01:47:01Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。