論文の概要: MoE-CE: Enhancing Generalization for Deep Learning based Channel Estimation via a Mixture-of-Experts Framework
- arxiv url: http://arxiv.org/abs/2509.15964v1
- Date: Fri, 19 Sep 2025 13:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.177997
- Title: MoE-CE: Enhancing Generalization for Deep Learning based Channel Estimation via a Mixture-of-Experts Framework
- Title(参考訳): MoE-CE:Mixture-of-Expertsフレームワークによるディープラーニングに基づくチャネル推定のための一般化の強化
- Authors: Tianyu Li, Yan Xin, Jianzhong, Zhang,
- Abstract要約: MoE-CEは、DLベースのCEメソッドの一般化能力を高めるために設計されたフレキシブル・オブ・エキスパート・フレームワークである。
我々は,MoE-CEが従来のDLアプローチより一貫して優れており,効率を保ちながら大きな性能向上を実現していることを示す。
- 参考スコア(独自算出の注目度): 34.580240531578106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable channel estimation (CE) is fundamental for robust communication in dynamic wireless environments, where models must generalize across varying conditions such as signal-to-noise ratios (SNRs), the number of resource blocks (RBs), and channel profiles. Traditional deep learning (DL)-based methods struggle to generalize effectively across such diverse settings, particularly under multitask and zero-shot scenarios. In this work, we propose MoE-CE, a flexible mixture-of-experts (MoE) framework designed to enhance the generalization capability of DL-based CE methods. MoE-CE provides an appropriate inductive bias by leveraging multiple expert subnetworks, each specialized in distinct channel characteristics, and a learned router that dynamically selects the most relevant experts per input. This architecture enhances model capacity and adaptability without a proportional rise in computational cost while being agnostic to the choice of the backbone model and the learning algorithm. Through extensive experiments on synthetic datasets generated under diverse SNRs, RB numbers, and channel profiles, including multitask and zero-shot evaluations, we demonstrate that MoE-CE consistently outperforms conventional DL approaches, achieving significant performance gains while maintaining efficiency.
- Abstract(参考訳): 信頼性チャネル推定(CE)は、信号と雑音の比(SNR)、リソースブロック数(RB)、チャネルプロファイルなど、様々な条件でモデルを一般化しなければならない動的無線環境におけるロバスト通信の基盤となる。
従来のディープラーニング(DL)ベースの手法は、特にマルチタスクやゼロショットのシナリオにおいて、このような多様な設定を効果的に一般化するのに苦労する。
本研究では, DL-based CE 法の一般化能力を高めるために, フレキシブル・ミックス・オブ・エクササイズ (MoE) フレームワークである MoE-CE を提案する。
MoE-CEは、異なるチャネル特性に特化している複数のエキスパートサブネットワークと、入力毎に最も関連性の高い専門家を動的に選択する学習ルータを活用することで、適切な帰納バイアスを提供する。
このアーキテクチャは、バックボーンモデルと学習アルゴリズムの選択に依存せず、計算コストが比例的に上昇することなく、モデルのキャパシティと適応性を向上する。
マルチタスクやゼロショット評価など,多様なSNR,RB数,チャネルプロファイルに基づいて生成された合成データセットに関する広範な実験を通じて,MoE-CEが従来のDLアプローチを一貫して上回り,効率を保ちながら大幅な性能向上を実現していることを示す。
関連論文リスト
- DRASP: A Dual-Resolution Attentive Statistics Pooling Framework for Automatic MOS Prediction [21.20778568616635]
本稿では,Dual-Resolution Attentive Statistics Pooling (DRASP) フレームワークを紹介する。
DRASPは、粗大でグローバルな統計要約と、知覚的に重要なセグメントの細粒で注意深い分析の両方を統合している。
さまざまなデータセットにまたがって、さまざまなベースラインメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2025-08-29T08:27:17Z) - Dynamic Acoustic Model Architecture Optimization in Training for ASR [51.21112094223223]
DMAOは、Grow-and-drop戦略を使用して、トレーニング中にパラメータを自動的に再配置するアーキテクチャ最適化フレームワークである。
CTC onSpeech, TED-Lium-v2, Switchboard を用いてDMAOの評価を行った。
論文 参考訳(メタデータ) (2025-06-16T07:47:34Z) - Enhancing CTR Prediction with De-correlated Expert Networks [45.50697497028273]
本稿では,専門的相関を最小化するクロスエキスパートデコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレーショナル・デコレー
我々はD-MoEがMulti-Embedding MoEベースラインと比較して1.19%のGross Merchandise Volume (GMV)リフトを達成することを示す。
論文 参考訳(メタデータ) (2025-05-23T14:04:38Z) - M$^{2}$M: Learning controllable Multi of experts and multi-scale operators are the Partial Differential Equations need [43.534771810528305]
本稿では,PDEを効率的にシミュレートし,学習するためのマルチスケール・マルチエキスパート(M$2$M)ニューラル演算子のフレームワークを提案する。
我々は、動的ルータポリシーのために、マルチエキスパートゲートネットワークをトレーニングするために、分断方式を採用する。
提案手法は,専門家の選択権を決定する制御可能な事前ゲーティング機構を組み込んで,モデルの効率を向上させる。
論文 参考訳(メタデータ) (2024-10-01T15:42:09Z) - Layerwise Recurrent Router for Mixture-of-Experts [42.36093735411238]
Mixture-of-Experts (MoE)アーキテクチャは、トレーニングコストを大幅に増加させることなく、モデルサイズをスケールできる能力で際立っている。
現在のMoEモデルはパラメータ非効率をしばしば表示する。
我々はMixture-of-Experts(RMoE)のためのLayerwise Recurrent Routerを紹介する。
論文 参考訳(メタデータ) (2024-08-13T10:25:13Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Soft Merging of Experts with Adaptive Routing [38.962451264172856]
適応ルーティングによるエキスパートのソフトマージ(SMEAR)について紹介する
SMEARは、専門家のパラメータの重み付け平均を通して構築された単一の「マージされた」専門家を使用することで、離散的なルーティングを避ける。
我々は,メタデータに基づいた経路モデルや,勾配推定によるスパースルーティングを学習するSMEARモデルを用いたモデルの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2023-06-06T15:04:31Z) - Exploiting Temporal Structures of Cyclostationary Signals for
Data-Driven Single-Channel Source Separation [98.95383921866096]
単一チャネルソース分離(SCSS)の問題点について検討する。
我々は、様々なアプリケーション領域に特に適するサイクロ定常信号に焦点を当てる。
本稿では,最小MSE推定器と競合するU-Netアーキテクチャを用いたディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T14:04:56Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。