論文の概要: Towards Efficient Federated Learning of Networked Mixture-of-Experts for Mobile Edge Computing
- arxiv url: http://arxiv.org/abs/2511.01743v1
- Date: Mon, 03 Nov 2025 16:54:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.334781
- Title: Towards Efficient Federated Learning of Networked Mixture-of-Experts for Mobile Edge Computing
- Title(参考訳): モバイルエッジコンピューティングのためのネットワークミキサーの効率的フェデレート学習に向けて
- Authors: Song Gao, Shusen Jing, Shuai Zhang, Yue Wang, Xiangwei Zhou, Songyang Zhang,
- Abstract要約: NMoE(Networked Mixture-of-Experts)システムを導入する。
NMoEを訓練するために,教師付き学習と自己教師型学習を統合したフェデレート学習フレームワークを提案する。
提案したNMoEシステムの有効性を実証し,NMoEトレーニングアルゴリズムに対する洞察とベンチマークを提供する。
- 参考スコア(独自算出の注目度): 35.55219933450924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in large artificial intelligence models (LAMs) are driving significant innovations in mobile edge computing within next-generation wireless networks. However, the substantial demands for computational resources and large-scale training data required to train LAMs conflict with the limited storage and computational capacity of edge devices, posing significant challenges to training and deploying LAMs at the edge. In this work, we introduce the Networked Mixture-of-Experts (NMoE) system, in which clients infer collaboratively by distributing tasks to suitable neighbors based on their expertise and aggregate the returned results. For training the NMoE, we propose a federated learning framework that integrates both supervised and self-supervised learning to balance personalization and generalization, while preserving communication efficiency and data privacy. We conduct extensive experiments to demonstrate the efficacy of the proposed NMoE system, providing insights and benchmarks for the NMoE training algorithms.
- Abstract(参考訳): 大規模人工知能モデル(LAM)の最近の進歩は、次世代無線ネットワークにおけるモバイルエッジコンピューティングにおける重要な革新を導いている。
しかし、計算資源のかなりの要求と、LAMの訓練に必要な大規模なトレーニングデータとエッジデバイスの限られたストレージと計算能力との矛盾は、LAMをエッジにトレーニングしデプロイする上で大きな課題を招いた。
本稿では,NMOE(Networked Mixture-of-Experts)システムについて紹介する。
NMoEを訓練するために,コミュニケーション効率とデータプライバシを保ちながら,教師付き学習と自己指導型学習を統合し,パーソナライゼーションと一般化のバランスをとるフェデレーション学習フレームワークを提案する。
提案したNMoEシステムの有効性を実証し,NMoEトレーニングアルゴリズムに対する洞察とベンチマークを提供する。
関連論文リスト
- Edge Intelligence with Spiking Neural Networks [50.33340747216377]
Spiking Neural Networks(SNN)は、リソース制約のあるデバイス上で、低消費電力でイベント駆動型の計算を提供する。
神経モデル,学習アルゴリズム,ハードウェアプラットフォームなどを含むEdgeSNN基盤の系統分類について述べる。
軽量SNNモデルを用いたデバイス上の推論、非定常データ条件下でのリソース認識トレーニングと更新、セキュアでプライバシ保護の問題。
論文 参考訳(メタデータ) (2025-07-18T16:47:52Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Optimizing Age of Information in Vehicular Edge Computing with Federated Graph Neural Network Multi-Agent Reinforcement Learning [44.17644657738893]
本稿では,データ更新の鍵となる情報時代(AoI)に着目し,RSU通信資源制約下での車両のタスクオフロード問題について検討する。
本稿では,Federated Graph Neural Network Multi-Agent Reinforcement Learning (FGNN-MADRL) と名付けたグラフニューラルネットワーク(GNN)を組み合わせた分散分散学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-01T15:37:38Z) - Towards Scalable Wireless Federated Learning: Challenges and Solutions [40.68297639420033]
効果的な分散機械学習フレームワークとして、フェデレートラーニング(FL)が登場します。
本稿では,ネットワーク設計と資源オーケストレーションの両面から,スケーラブルな無線FLを実現する上での課題と解決策について論じる。
論文 参考訳(メタデータ) (2023-10-08T08:55:03Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Privacy-Preserving Serverless Edge Learning with Decentralized Small
Data [13.254530176359182]
最近、分散トレーニング戦略は、ディープモデルをトレーニングする際のデータプライバシを保証するための有望なアプローチになっている。
本稿では、従来のサーバレスプラットフォームをサーバレスエッジ学習アーキテクチャで拡張し、ネットワークの観点から効率的な分散トレーニングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-11-29T21:04:49Z) - FedSup: A Communication-Efficient Federated Learning Fatigue Driving
Behaviors Supervision Framework [10.38729333916008]
FedSupは、プライバシーと効率的な疲労検出のためのクライアントエッジクラウドフレームワークです。
FedSupは、フェデレーション学習技術にインスパイアされ、クライアント、エッジ、クラウドサーバー間のコラボレーションをインテリジェントに活用します。
論文 参考訳(メタデータ) (2021-04-25T07:16:49Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。