論文の概要: Distributed Machine Learning Approach for Low-Latency Localization in Cell-Free Massive MIMO Systems
- arxiv url: http://arxiv.org/abs/2507.14216v1
- Date: Wed, 16 Jul 2025 06:05:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.772529
- Title: Distributed Machine Learning Approach for Low-Latency Localization in Cell-Free Massive MIMO Systems
- Title(参考訳): セルレス大規模MIMOシステムにおける低レイテンシローカライゼーションのための分散機械学習手法
- Authors: Manish Kumar, Tzu-Hsuan Chou, Byunghyun Lee, Nicolò Michelusi, David J. Love, Yaguang Zhang, James V. Krogmeier,
- Abstract要約: 低レイテンシのローカライゼーションは、正確な位置決めを必要とするリアルタイムアプリケーションをサポートするために、セルネットワークにおいて重要である。
本研究では, セルレス大規模マルチインプットマルチアウトプット(MIMO)システムに適した指紋位置推定のための分散機械学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.842941544015194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-latency localization is critical in cellular networks to support real-time applications requiring precise positioning. In this paper, we propose a distributed machine learning (ML) framework for fingerprint-based localization tailored to cell-free massive multiple-input multiple-output (MIMO) systems, an emerging architecture for 6G networks. The proposed framework enables each access point (AP) to independently train a Gaussian process regression model using local angle-of-arrival and received signal strength fingerprints. These models provide probabilistic position estimates for the user equipment (UE), which are then fused by the UE with minimal computational overhead to derive a final location estimate. This decentralized approach eliminates the need for fronthaul communication between the APs and the central processing unit (CPU), thereby reducing latency. Additionally, distributing computational tasks across the APs alleviates the processing burden on the CPU compared to traditional centralized localization schemes. Simulation results demonstrate that the proposed distributed framework achieves localization accuracy comparable to centralized methods, despite lacking the benefits of centralized data aggregation. Moreover, it effectively reduces uncertainty of the location estimates, as evidenced by the 95\% covariance ellipse. The results highlight the potential of distributed ML for enabling low-latency, high-accuracy localization in future 6G networks.
- Abstract(参考訳): 低レイテンシのローカライゼーションは、正確な位置決めを必要とするリアルタイムアプリケーションをサポートするために、セルネットワークにおいて重要である。
本稿では,6Gネットワークの新たなアーキテクチャである,セルレス大規模マルチインプットマルチアウトプット(MIMO)システムに適した,指紋ベースのローカライゼーションのための分散機械学習(ML)フレームワークを提案する。
提案フレームワークにより,各アクセスポイント(AP)は,局所角度と受信信号強度指紋を用いて,ガウス過程回帰モデルを独立に訓練することができる。
これらのモデルは、ユーザ機器(UE)に対して確率的位置推定を提供し、最終的な位置推定を導出するために、UEによって最小の計算オーバーヘッドで融合される。
この分散化アプローチにより、APとCPU(Central Processing Unit)間のフロントホール通信が不要になり、レイテンシーが減少する。
さらに、計算タスクをAPに分散することで、従来の集中型ローカライゼーション方式に比べてCPUの処理負担が軽減される。
シミュレーションの結果,分散フレームワークは集中型データ集約の利点に欠けるにもかかわらず,集中型手法に匹敵するローカライゼーションの精度を実現することが示された。
さらに、95%の共分散楕円によって証明されたように、位置推定の不確かさを効果的に低減する。
その結果、将来の6Gネットワークにおいて、低レイテンシで高精度なローカライゼーションを実現するための分散MLの可能性を強調した。
関連論文リスト
- Optimal Transport-based Domain Alignment as a Preprocessing Step for Federated Learning [0.48342038441006796]
Federated Learning(FL)は、機械学習のサブフィールドであり、ローカルデータを中央サーバと共有することを避ける。
FLでは、局所的に訓練されたモデルと不均衡なデータセットを融合させることで、グローバルモデルアグリゲーションの性能が低下する可能性がある。
本稿では,エッジデバイスに沿ったデータの分布差を最小化してデータセットを整列する,最適なトランスポートベースの前処理アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-04T15:35:55Z) - Decentralised Resource Sharing in TinyML: Wireless Bilayer Gossip Parallel SGD for Collaborative Learning [2.6913398550088483]
本稿では,2層化ゴシップ分散並列 Descent (GDD) を提案する。
GDDは断続接続、限られた通信範囲、動的ネットワークトポロジに対処する。
我々は,CFL(Centralized Federated Learning)ベースラインに対するフレームワークの性能を評価する。
論文 参考訳(メタデータ) (2025-01-08T20:14:07Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Auction Based Clustered Federated Learning in Mobile Edge Computing
System [13.710325615076687]
Federated Learningは、ローカルコンピューティングとローカルデータを使用して人工知能(AI)モデルをトレーニングする分散機械学習ソリューションである。
本稿では,グローバル分布を満たすフェデレーション仮想データセットを生成するクラスタベースのクライアント選択手法を提案する。
提案手法とオークションに基づくフェデレーション学習により,異なるデータ分布下での畳み込みニューラルネットワークモデル(CNN)により,より優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2021-03-12T08:54:27Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Zero-Shot Multi-View Indoor Localization via Graph Location Networks [66.05980368549928]
屋内ローカライゼーションは、位置ベースアプリケーションにおける基本的な問題である。
本稿では,インフラストラクチャフリーで多視点画像に基づく屋内ローカライゼーションを実現するために,新しいニューラルネットワークアーキテクチャであるGraph Location Networks(GLN)を提案する。
GLNは、メッセージパッシングネットワークを通じて画像から抽出されたロバストな位置表現に基づいて位置予測を行う。
新たにゼロショット屋内ローカライズ設定を導入し,提案したGLNを専用ゼロショットバージョンに拡張することで,その課題に対処する。
論文 参考訳(メタデータ) (2020-08-06T07:36:55Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。