論文の概要: Hybrid Federated Learning for Noise-Robust Training
- arxiv url: http://arxiv.org/abs/2601.04483v1
- Date: Thu, 08 Jan 2026 01:34:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.973439
- Title: Hybrid Federated Learning for Noise-Robust Training
- Title(参考訳): ハイブリット・フェデレーション・ラーニングによる騒音・ロバスト訓練
- Authors: Yongjun Kim, Hyeongjun Park, Hwanjin Kim, Junil Choi,
- Abstract要約: フェデレーション・ラーニング(Federated Learning, FL)とフェデレーション・蒸留(FD)は、UEモデルを高度なプライバシーで訓練する分散学習パラダイムである。
本稿では,各ユーザ機器(UE)が勾配またはログを送信し,基地局(BS)がFLおよびFD更新の単位単位の重みを選択するハイブリッド・フェデレーション・ラーニング(HFL)フレームワークを提案する。
数値計算の結果,両DoFを利用した場合,HFLは低SNRでの試験精度に優れていた。
- 参考スコア(独自算出の注目度): 18.559312714944873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) and federated distillation (FD) are distributed learning paradigms that train UE models with enhanced privacy, each offering different trade-offs between noise robustness and learning speed. To mitigate their respective weaknesses, we propose a hybrid federated learning (HFL) framework in which each user equipment (UE) transmits either gradients or logits, and the base station (BS) selects the per-round weights of FL and FD updates. We derive convergence of HFL framework and introduce two methods to exploit degrees of freedom (DoF) in HFL, which are (i) adaptive UE clustering via Jenks optimization and (ii) adaptive weight selection via a damped Newton method. Numerical results show that HFL achieves superior test accuracy at low SNR when both DoF are exploited.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)とフェデレーテッド・蒸留(FD)は、UEモデルを強化されたプライバシでトレーニングする分散学習パラダイムであり、それぞれがノイズの堅牢性と学習速度の異なるトレードオフを提供する。
それぞれの弱点を軽減するために,各ユーザ機器(UE)がグラデーションまたはロジットを送信し,基地局(BS)がFLおよびFD更新の全体重みを選択するハイブリッド・フェデレーション・ラーニング(HFL)フレームワークを提案する。
我々は、HFLフレームワークの収束を導出し、HFLにおける自由度(DoF)を利用する2つの方法を導入する。
(i)Jenks最適化による適応UEクラスタリング
(II)減衰ニュートン法による適応重量選択
数値計算の結果,両DoFを利用した場合,HFLは低SNRでの試験精度に優れていた。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - MergeSFL: Split Federated Learning with Feature Merging and Batch Size Regulation [27.159538773609917]
フェデレートラーニング(Federated Learning, FL)は、エッジコンピューティング(EC)システムにおいて、エッジAIが貴重な知識をマイニングするための技術である。
本稿では,機能統合とバッチサイズ制御をSFLに組み込んだ新しいSFLフレームワークMergeSFLを提案する。
我々は,MergeSFLが最終モデルの精度を5.82%から26.22%向上し,ベースラインに比べて約1.74倍から4.14倍のスピードアップが可能であることを示した。
論文 参考訳(メタデータ) (2023-11-22T12:25:02Z) - NeFL: Nested Model Scaling for Federated Learning with System Heterogeneous Clients [44.89061671579694]
フェデレートラーニング(FL)は、データのプライバシを保ちながら分散トレーニングを可能にするが、ストラグラーのスローあるいは無効なクライアントは、トレーニング時間を大幅に短縮し、パフォーマンスを低下させる。
深層ニューラルネットワークを深層スケールと幅ワイドスケーリングの両方を用いてサブモデルに効率的に分割するフレームワークであるネスト付きフェデレーションラーニング(NeFL)を提案する。
NeFLは、特に最低ケースのサブモデルでは、ベースラインアプローチに比べてパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-08-15T13:29:14Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Towards Fairer and More Efficient Federated Learning via
Multidimensional Personalized Edge Models [36.84027517814128]
フェデレートラーニング(FL)は、プライバシーを維持しながら、大規模で地理的に分散したエッジデータをトレーニングする。
複数の次元からFLの不均一性を除去するカスタム・フェデレート・ラーニング(CFL)システムを提案する。
CFLは、オンライントレーニングされたモデル検索ヘルパーと新しい集約アルゴリズムによって、クライアントごとに特別に設計されたグローバルモデルからパーソナライズされたモデルをカスタマイズする。
論文 参考訳(メタデータ) (2023-02-09T06:55:19Z) - ISFL: Federated Learning for Non-i.i.d. Data with Local Importance Sampling [17.29669920752378]
理論的保証のある明示的な枠組みであるISFLを提案する。
我々はISFLの収束定理を導出し、局所的な重要度サンプリングの効果を含む。
我々は、IS重みを計算し、ISFLアルゴリズムを開発するために、水充填法を用いる。
論文 参考訳(メタデータ) (2022-10-05T09:43:58Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - TiFL: A Tier-based Federated Learning System [17.74678728280232]
フェデレートラーニング(FL)は、プライバシ要件に違反することなく、多くのクライアント間で共有モデルを学ぶことを可能にする。
従来のFLシステムのトレーニング時間とモデル精度に,資源とデータの不均一性が大きな影響を与えることを示すケーススタディを実施している。
我々は,TiFLを提案する。TiFLは,クライアントをトレーニングパフォーマンスに基づいて階層に分割し,トレーニングラウンド毎に同一階層から選択する,階層ベースのフェデレートラーニングシステムである。
論文 参考訳(メタデータ) (2020-01-25T01:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。