論文の概要: Personalized Over-the-Air Federated Learning with Personalized
Reconfigurable Intelligent Surfaces
- arxiv url: http://arxiv.org/abs/2401.12149v1
- Date: Mon, 22 Jan 2024 17:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 12:59:06.932165
- Title: Personalized Over-the-Air Federated Learning with Personalized
Reconfigurable Intelligent Surfaces
- Title(参考訳): パーソナライズされた再構成可能なインテリジェントサーフェスによるオーバーエアフェデレーション学習
- Authors: Jiayu Mao and Aylin Yener
- Abstract要約: オーバー・ザ・エア計算(OTAFL)は、無線チャネルの固有の重ね合わせ特性を活用することにより、フェデレーション学習を提供する。
我々は、再構成可能なリソースを補助するマルチタスク、マルチレイヤ方式により、OTAFLを初めてパーソナライズする。
本稿では,インテリジェントな面,パーソナル・ザ・メドデータセットの収束解析について述べる。
- 参考スコア(独自算出の注目度): 18.347628903096094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over-the-air federated learning (OTA-FL) provides bandwidth-efficient
learning by leveraging the inherent superposition property of wireless
channels. Personalized federated learning balances performance for users with
diverse datasets, addressing real-life data heterogeneity. We propose the first
personalized OTA-FL scheme through multi-task learning, assisted by personal
reconfigurable intelligent surfaces (RIS) for each user. We take a cross-layer
approach that optimizes communication and computation resources for global and
personalized tasks in time-varying channels with imperfect channel state
information, using multi-task learning for non-i.i.d data. Our PROAR-PFed
algorithm adaptively designs power, local iterations, and RIS configurations.
We present convergence analysis for non-convex objectives and demonstrate that
PROAR-PFed outperforms state-of-the-art on the Fashion-MNIST dataset.
- Abstract(参考訳): オーバー・ザ・エア・フェデレーション・ラーニング(OTA-FL)は、無線チャネルの固有の重ね合わせ特性を活用することで、帯域幅効率の高い学習を提供する。
パーソナライズされたフェデレーション学習は、さまざまなデータセットを持つユーザのパフォーマンスをバランスさせ、実際のデータの異質性に対処する。
本稿では,マルチタスク学習による個人化型ota-flスキームを提案し,各ユーザに対するパーソナルリコンフィギュアブルインテリジェントサーフェス(ris)の支援を行う。
非i.dデータに対するマルチタスク学習を用いて、不完全なチャネル状態情報を持つ時間変化チャネルにおいて、グローバルおよびパーソナライズされたタスクのための通信および計算リソースを最適化する層間アプローチを採用する。
ProAR-PFedアルゴリズムは、パワー、ローカルイテレーション、RIS構成を適応的に設計する。
本稿では,非凸対象に対する収束解析を行い,PROAR-PFedがFashion-MNISTデータセットの最先端性を上回ることを示す。
関連論文リスト
- Context-Aware Orchestration of Energy-Efficient Gossip Learning Schemes [8.382766344930157]
本稿では,Gossip Learningと学習プロセスの適応最適化を組み合わせた分散学習手法を提案する。
本稿では,ノードごとのリアルタイムな最適化に依存するデータ駆動型OGL管理手法を提案する。
その結果,提案手法は幅広いネットワークシナリオにおいて極めて効率的かつ効果的であることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T09:17:46Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Fed-QSSL: A Framework for Personalized Federated Learning under Bitwidth
and Data Heterogeneity [14.313847382199059]
Fed-QSSL (Federated Quantization-based self-supervised learning scheme) はFLシステムの不均一性に対処するために設計された。
Fed-QSSLは、デ量子化、重み付けされたアグリゲーション、再量子化をデプロイし、最終的に、各クライアントのデバイスのデータ分散と特定のインフラストラクチャの両方にパーソナライズされたモデルを作成する。
論文 参考訳(メタデータ) (2023-12-20T19:11:19Z) - Federated Deep Equilibrium Learning: Harnessing Compact Global Representations to Enhance Personalization [23.340237814344377]
Federated Learning(FL)は、クライアントがデータを交換することなくグローバルモデルを協調的にトレーニングできる、画期的な分散学習パラダイムとして登場した。
FeDEQは,高効率なパーソナライズのために,コンパクトなグローバルデータ表現を利用するために,深い平衡学習とコンセンサス最適化を取り入れた新しいFLフレームワークである。
FeDEQは,訓練中の通信サイズを最大4倍,メモリフットプリントを1.5倍に削減しつつ,最先端のパーソナライズされたFL法の性能に適合することを示した。
論文 参考訳(メタデータ) (2023-09-27T13:48:12Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Differentially Private Federated Learning via Reconfigurable Intelligent
Surface [27.004823731436765]
フェデレートラーニング(FL)は、分散化されたローカルデータセットを共有せずに、グローバルモデルの協調トレーニングを可能にする。
本稿では,学習精度とプライバシのジレンマを軽減するために,再構成可能インテリジェントサーフェス (RIS) を用いたオーバー・ザ・エア FLシステムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:45:02Z) - FedGradNorm: Personalized Federated Gradient-Normalized Multi-Task
Learning [50.756991828015316]
マルチタスク学習(MTL)は、1つの共有ネットワークで複数のタスクを同時に学習する新しいフレームワークである。
本稿では,異なるタスク間の学習速度のバランスをとるために,動的重み付け法を用いてノルムの正規化を行うFedGradNormを提案する。
論文 参考訳(メタデータ) (2022-03-24T17:43:12Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - On Addressing Heterogeneity in Federated Learning for Autonomous
Vehicles Connected to a Drone Orchestrator [32.61132332561498]
我々は,自動運転車の性能を向上する上で,連邦学習(FL)のシナリオを想定する。
我々は,自律走行車の名目上の操作を損なう可能性のある,特定の種類の臨界物体(CO)の学習を加速する問題に焦点をあてる。
論文 参考訳(メタデータ) (2021-08-05T16:25:48Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。