論文の概要: A Novel Look at LIDAR-aided Data-driven mmWave Beam Selection
- arxiv url: http://arxiv.org/abs/2104.14579v2
- Date: Mon, 3 May 2021 12:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 10:46:57.135583
- Title: A Novel Look at LIDAR-aided Data-driven mmWave Beam Selection
- Title(参考訳): LIDAR支援データ駆動型ミリ波ビーム選択の新展開
- Authors: Matteo Zecchin, Mahdi Boloursaz Mashhadi, Mikolaj Jankowski, Deniz
Gunduz, Marios Kountouris, David Gesbert
- Abstract要約: 軽量ニューラルネットワーク(NN)アーキテクチャとそれに対応するLIDARプリプロセッシングを提案する。
nnベースのビーム選択方式は、ビーム探索のオーバーヘッドなしに79.9%のスループットを達成でき、95%のスループットを6ビーム以内で探索できる。
- 参考スコア(独自算出の注目度): 24.711393214172148
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efficient millimeter wave (mmWave) beam selection in
vehicle-to-infrastructure (V2I) communication is a crucial yet challenging task
due to the narrow mmWave beamwidth and high user mobility. To reduce the search
overhead of iterative beam discovery procedures, contextual information from
light detection and ranging (LIDAR) sensors mounted on vehicles has been
leveraged by data-driven methods to produce useful side information. In this
paper, we propose a lightweight neural network (NN) architecture along with the
corresponding LIDAR preprocessing, which significantly outperforms previous
works. Our solution comprises multiple novelties that improve both the
convergence speed and the final accuracy of the model. In particular, we define
a novel loss function inspired by the knowledge distillation idea, introduce a
curriculum training approach exploiting line-of-sight (LOS)/non-line-of-sight
(NLOS) information, and we propose a non-local attention module to improve the
performance for the more challenging NLOS cases. Simulation results on
benchmark datasets show that, utilizing solely LIDAR data and the receiver
position, our NN-based beam selection scheme can achieve 79.9% throughput of an
exhaustive beam sweeping approach without any beam search overhead and 95% by
searching among as few as 6 beams.
- Abstract(参考訳): 車両間通信(V2I)における効率の良いミリ波 (mmWave) ビーム選択は, 狭いミリ波ビーム幅と高いユーザ移動性のために重要な課題である。
反復ビーム検出手法の探索オーバーヘッドを低減するため、車両に搭載された光検出・測光センサ(LIDAR)からのコンテキスト情報をデータ駆動方式で利用し、有用な側情報を生成する。
本稿では,それに対応するLIDAR前処理とともに,軽量ニューラルネットワーク(NN)アーキテクチャを提案する。
提案手法はモデルの収束速度と最終的な精度の両方を改善する複数の新規性を含んでいる。
特に, 知識蒸留に触発された新しい損失関数を定義し, 視線(los)/非視線(nlos)情報を活用したカリキュラムトレーニング手法を導入し, より困難なnlos症例の性能を向上させるための非局所注意モジュールを提案する。
LIDARデータと受信者位置のみを用いて,我々のNNベースのビーム選択方式は,ビーム探索オーバーヘッドを伴わずに79.9%のスループットを実現し,最大6本のビームを探索することで95%のスループットを達成できることを示す。
関連論文リスト
- Online waveform selection for cognitive radar [8.187445866881637]
オンライン方式で波形パラメータを選択する適応アルゴリズムを提案する。
本稿では,帯域幅のスケーリング,Qラーニング,Qラーニングのルックアヘッドという3つの強化学習アルゴリズムを提案する。
提案アルゴリズムは、目標を失わずにレンジ誤差を最小化し、連続的な追跡を維持するという2つの目的を達成する。
論文 参考訳(メタデータ) (2024-10-14T15:01:41Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Deep Learning and Image Super-Resolution-Guided Beam and Power
Allocation for mmWave Networks [80.37827344656048]
我々は,ミリ波(mmWave)ネットワークのためのディープラーニング(DL)誘導ハイブリッドビームとパワーアロケーションアプローチを開発した。
教師付き学習と超解像技術の相乗効果を利用して、低オーバヘッドビームとパワーアロケーションを実現する。
論文 参考訳(メタデータ) (2023-05-08T05:40:54Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Deep Learning on Multimodal Sensor Data at the Wireless Edge for
Vehicular Network [8.458980329342799]
本稿では,LiDAR,カメラ画像,GPSなどのセンサから収集したマルチモーダルデータを活用することで,ビーム選択を高速化する手法を提案する。
本研究では,モバイル・エッジ・コンピューティング・センターだけでなく,ローカルでも実行可能な個別かつ分散融合型ディープラーニング(F-DL)アーキテクチャを提案する。
市販の合成および自家用実世界のデータセットに対する広範な評価の結果、古典的なRFのみのビームスイーピングよりも95%と96%のビーム選択速度が向上したことが明らかとなった。
論文 参考訳(メタデータ) (2022-01-12T21:55:34Z) - End-To-End Optimization of LiDAR Beam Configuration for 3D Object
Detection and Localization [87.56144220508587]
与えられたアプリケーションに対するLiDARビーム構成の最適化を学ぶために、新しい経路を取る。
ビーム構成を自動的に最適化する強化学習に基づく学習最適化フレームワークを提案する。
本手法は低解像度(低コスト)のLiDARが必要な場合に特に有用である。
論文 参考訳(メタデータ) (2022-01-11T09:46:31Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Improving Perception via Sensor Placement: Designing Multi-LiDAR Systems
for Autonomous Vehicles [16.45799795374353]
確率的占有グリッド(POG)に基づく計算が容易な情報理論的サーロゲートコストメトリックを提案し、最大センシングのためのLiDAR配置を最適化する。
以上の結果から,センサ配置は3Dポイントクラウドによる物体検出において重要な要素であり,最先端の認識アルゴリズムでは10%の精度で性能が変動する可能性が示唆された。
論文 参考訳(メタデータ) (2021-05-02T01:52:18Z) - Federated mmWave Beam Selection Utilizing LIDAR Data [3.7352534957395522]
We propose LIDAR aided beam selection for V2I mmWave communication system using federated training。
提案手法では、コネクテッドカーが協調して、システム正常動作中に、ローカルで利用可能なLIDARデータに基づいて共有ニューラルネットワーク(NN)を訓練する。
また,CNNアーキテクチャとLIDARプリプロセッシングの代替として,性能と複雑さの両面で,従来よりも大幅に優れていた,より複雑な畳み込みNN(CNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-04T18:49:20Z) - Experimental Investigation of Deep Learning for Digital Signal
Processing in Short Reach Optical Fiber Communications [2.9801732851402556]
リカレントニューラルネットワーク(RNN)を用いた自動エンコーダの性能向上手法について検討する。
特に,最近提案されたスライディングウインドウ双方向RNN(SBRNN)光ファイバーオートエンコーダに着目した。
受信機におけるシーケンス推定アルゴリズムにおける処理ウィンドウの調整は、チャネルモデルに基づいて訓練された単純なシステムのリーチを改善することを示す。
論文 参考訳(メタデータ) (2020-05-18T15:09:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。