論文の概要: Edge Learning via Federated Split Decision Transformers for Metaverse Resource Allocation
- arxiv url: http://arxiv.org/abs/2602.16174v1
- Date: Wed, 18 Feb 2026 04:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.510068
- Title: Edge Learning via Federated Split Decision Transformers for Metaverse Resource Allocation
- Title(参考訳): 異種資源配置のためのフェデレーション分割決定変換器によるエッジ学習
- Authors: Fatih Temiz, Shavbo Salehi, Melike Erol-Kantarci,
- Abstract要約: 本稿では,このトランスモデルをMECサーバとクラウド間で分割するオフラインRLフレームワークであるFederated Split Decision Transformer (FSDT)を提案する。
実験結果から,FSDTは基線に比べて異種環境下でのQoEを最大10%向上させることが示された。
- 参考スコア(独自算出の注目度): 3.8613477927967614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile edge computing (MEC) based wireless metaverse services offer an untethered, immersive experience to users, where the superior quality of experience (QoE) needs to be achieved under stringent latency constraints and visual quality demands. To achieve this, MEC-based intelligent resource allocation for virtual reality users needs to be supported by coordination across MEC servers to harness distributed data. Federated learning (FL) is a promising solution, and can be combined with reinforcement learning (RL) to develop generalized policies across MEC-servers. However, conventional FL incurs transmitting the full model parameters across the MEC-servers and the cloud, and suffer performance degradation due to naive global aggregation, especially in heterogeneous multi-radio access technology environments. To address these challenges, this paper proposes Federated Split Decision Transformer (FSDT), an offline RL framework where the transformer model is partitioned between MEC servers and the cloud. Agent-specific components (e.g., MEC-based embedding and prediction layers) enable local adaptability, while shared global layers in the cloud facilitate cooperative training across MEC servers. Experimental results demonstrate that FSDT enhances QoE for up to 10% in heterogeneous environments compared to baselines, while offloadingnearly 98% of the transformer model parameters to the cloud, thereby reducing the computational burden on MEC servers.
- Abstract(参考訳): モバイルエッジコンピューティング(MEC)ベースのワイヤレスメタバースサービスは、レイテンシの厳しい制約と視覚的品質要求の下で、優れたクオリティ・オブ・エクスペリエンス(QoE)を達成する必要があるユーザに対して、テザリングのない没入型エクスペリエンスを提供する。
これを実現するには,MECサーバ間で協調して分散データを活用することで,仮想現実ユーザのためのMECベースのインテリジェントリソースアロケーションをサポートする必要がある。
フェデレートラーニング(FL)は有望なソリューションであり、強化ラーニング(RL)と組み合わせて、MECサーバ全体にわたる一般的なポリシーを開発することができる。
しかし、従来のFLは、MECサーバとクラウド間で完全なモデルパラメータを送信し、特に異種マルチラジオアクセス技術環境では、単純なグローバルアグリゲーションによる性能劣化に悩まされている。
これらの課題に対処するため,本研究では,MECサーバとクラウド間でトランスフォーマモデルを分割するオフラインRLフレームワークであるFederated Split Decision Transformer (FSDT)を提案する。
エージェント固有のコンポーネント(MECベースの埋め込みと予測レイヤなど)は、ローカルな適応性を実現すると同時に、クラウド内のグローバルなレイヤを共有することで、MECサーバ間の協調的なトレーニングを促進する。
実験結果から,FSDTはベースラインに比べてQoEを最大10%向上させる一方で,トランスフォーマーモデルパラメータの98%をクラウドにオフロードすることで,MECサーバの計算負担を低減できることがわかった。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Closer to Reality: Practical Semi-Supervised Federated Learning for Foundation Model Adaptation [56.36237936346563]
ファンデーションモデル(FM)は顕著な一般化を示すが、下流のタスクに適応する必要がある。
データプライバシー規制のため、クラウドベースのFMはプライベートエッジデータに直接アクセスできない。
エッジデバイスがラベルのない低解像度のデータのみを保持する実践的セミスーパービジョン・フェデレーションラーニング(PSSFL)を導入する。
我々の研究は、フェデレートされたシナリオにおけるスケーラブルでプライバシ保護のFM適応の道を開いた。
論文 参考訳(メタデータ) (2025-08-22T17:47:02Z) - A Hybrid Swarm Intelligence Approach for Optimizing Multimodal Large Language Models Deployment in Edge-Cloud-based Federated Learning Environments [10.72166883797356]
Federated Learning (FL)、Multimodal Large Language Models (MLLM)、エッジ・クラウド・コンピューティングは分散およびリアルタイムのデータ処理を可能にする。
そこで本研究では,MLLMを十分なリソースとバッテリ寿命を備えたエッジデバイスにデプロイするハイブリッドフレームワークを提案する。
実験の結果,提案手法はシステム性能を大幅に向上し,92%の精度を実現し,通信コストを30%削減し,クライアントの参加性を高めた。
論文 参考訳(メタデータ) (2025-02-04T03:03:24Z) - Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - FedICT: Federated Multi-task Distillation for Multi-access Edge Computing [11.37078089754479]
マルチアクセスエッジ計算(FedICT)のためのMultI-task蒸留法を提案する。
FedICTによるクライアントとサーバ間の双方向蒸留プロセスにおけるローカル・グローバルな知識の活用
FedICTは、さまざまなデータ異種およびモデルアーキテクチャ設定で比較されたベンチマークを著しく上回っている。
論文 参考訳(メタデータ) (2023-01-01T11:50:58Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - Accelerating Federated Learning over Reliability-Agnostic Clients in
Mobile Edge Computing Systems [15.923599062148135]
フェデレーション学習は、AIアプリケーションを促進するための、将来性のあるプライバシ保護アプローチとして登場した。
MECアーキテクチャと統合された場合、FLの効率性と効率を最適化することは依然として大きな課題である。
本稿では,MECアーキテクチャのために,HybridFLと呼ばれる多層フェデレート学習プロトコルを設計する。
論文 参考訳(メタデータ) (2020-07-28T17:35:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。