論文の概要: Large Wireless Localization Model (LWLM): A Foundation Model for Positioning in 6G Networks
- arxiv url: http://arxiv.org/abs/2505.10134v1
- Date: Thu, 15 May 2025 10:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.271615
- Title: Large Wireless Localization Model (LWLM): A Foundation Model for Positioning in 6G Networks
- Title(参考訳): 大規模無線局地化モデル(LWLM):6Gネットワークにおける位置決めの基礎モデル
- Authors: Guangjin Pan, Kaixuan Huang, Hui Chen, Shunqing Zhang, Christian Häger, Henk Wymeersch,
- Abstract要約: 本稿では,無線位置決めに適したファンデーションモデルに基づくソリューションを提案する。
まず、異なる自己教師付き学習(SSL)タスクが汎用的およびタスク固有の意味的特徴をどのように獲得するかを分析する。
提案するLarge Wireless Localization Model (LWLM) の事前学習手法を設計する。
- 参考スコア(独自算出の注目度): 26.30108656575931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and robust localization is a critical enabler for emerging 5G and 6G applications, including autonomous driving, extended reality (XR), and smart manufacturing. While data-driven approaches have shown promise, most existing models require large amounts of labeled data and struggle to generalize across deployment scenarios and wireless configurations. To address these limitations, we propose a foundation-model-based solution tailored for wireless localization. We first analyze how different self-supervised learning (SSL) tasks acquire general-purpose and task-specific semantic features based on information bottleneck (IB) theory. Building on this foundation, we design a pretraining methodology for the proposed Large Wireless Localization Model (LWLM). Specifically, we propose an SSL framework that jointly optimizes three complementary objectives: (i) spatial-frequency masked channel modeling (SF-MCM), (ii) domain-transformation invariance (DTI), and (iii) position-invariant contrastive learning (PICL). These objectives jointly capture the underlying semantics of wireless channel from multiple perspectives. We further design lightweight decoders for key downstream tasks, including time-of-arrival (ToA) estimation, angle-of-arrival (AoA) estimation, single base station (BS) localization, and multiple BS localization. Comprehensive experimental results confirm that LWLM consistently surpasses both model-based and supervised learning baselines across all localization tasks. In particular, LWLM achieves 26.0%--87.5% improvement over transformer models without pretraining, and exhibits strong generalization under label-limited fine-tuning and unseen BS configurations, confirming its potential as a foundation model for wireless localization.
- Abstract(参考訳): 正確なローカライゼーションとロバストなローカライゼーションは、自動運転、拡張現実(XR)、スマートマニュファクチャリングなど、新興の5Gおよび6Gアプリケーションにとって重要な実現手段である。
データ駆動アプローチは将来性を示しているが、既存のモデルのほとんどは大量のラベル付きデータを必要とし、デプロイメントシナリオや無線構成をまたいだ一般化に苦労している。
これらの制約に対処するために,ワイヤレスのローカライゼーションに適した基礎モデルに基づくソリューションを提案する。
我々はまず、情報ボトルネック(IB)理論に基づいて、異なる自己教師付き学習(SSL)タスクが汎用的およびタスク固有の意味的特徴をどのように獲得するかを分析する。
提案するLarge Wireless Localization Model (LWLM) の事前学習手法を設計する。
具体的には,3つの補完目的を共同で最適化するSSLフレームワークを提案する。
(i)空間周波数マスマインドチャネルモデリング(SF-MCM)
(二)ドメイン変換不変性(DTI)及び
(iii)位置不変コントラスト学習(PICL)
これらの目的は、無線チャネルの基本的な意味を複数の視点から捉えることである。
さらに、所要時間(ToA)推定、AoA推定、単一基地局(BS)ローカライゼーション、複数BSローカライゼーションなど、キー下流タスクのための軽量デコーダを設計する。
総合的な実験結果から、LWLMはすべてのローカライゼーションタスクにおいて、モデルベースおよび教師付き学習ベースラインを一貫して超越していることが確認された。
特に、LWLMは事前トレーニングなしでトランスフォーマーモデルよりも26.0%--87.5%改善し、ラベル制限された微調整と見えないBS構成の下で強力な一般化を示し、無線ローカライゼーションの基礎モデルとしての可能性を確認している。
関連論文リスト
- Multi-Task Learning as enabler for General-Purpose AI-native RAN [1.4295558450631414]
本研究では、汎用AIネイティブ無線アクセスネットワーク(RAN)におけるマルチタスク学習(MTL)アプローチの有効性について検討する。
本研究は, (i) セカンダリキャリア予測, (ii) ユーザ位置予測, (iii) 屋内リンク分類, (iv) 視線リンク分類の4つのタスクに焦点を当てた。
モデルアーキテクチャ,損失と勾配のバランス戦略,分散学習トポロジ,データ空間,タスクグループ化など,MLLの多面的設計面を考慮した現実的なシミュレーションによる性能評価を行った。
論文 参考訳(メタデータ) (2024-04-05T21:12:25Z) - The Unreasonable Effectiveness of Large Language-Vision Models for
Source-free Video Domain Adaptation [56.61543110071199]
Source-Free Video Unsupervised Domain Adaptation (SFVUDA)タスクは、ラベル付きソースデータセットでトレーニングされたアクション認識モデルを、ラベル付きターゲットデータセットに適応させることによって構成される。
従来のアプローチでは、ターゲットデータ自体から派生した自己スーパービジョンを活用してSFVUDAに対処しようと試みてきた。
我々は、LLVMがドメインシフトに対して驚くほど堅牢になる前に、リッチな世界を含むという理論によって、LLVM(Large Language-Vision Models)から"web-supervision"を利用するアプローチを取る。
論文 参考訳(メタデータ) (2023-08-17T18:12:05Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Multi-task Learning Approach for Modulation and Wireless Signal
Classification for 5G and Beyond: Edge Deployment via Model Compression [1.218340575383456]
将来的な通信網は、異種無線デバイスの成長に対応するために、少ないスペクトルに対処する必要がある。
我々は、深層ニューラルネットワークに基づくマルチタスク学習フレームワークの可能性を利用して、変調と信号分類タスクを同時に学習する。
公共利用のための包括的ヘテロジニアス無線信号データセットを提供する。
論文 参考訳(メタデータ) (2022-02-26T14:51:02Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。