論文の概要: Vehicle Cameras Guide mmWave Beams: Approach and Real-World V2V
Demonstration
- arxiv url: http://arxiv.org/abs/2308.10362v1
- Date: Sun, 20 Aug 2023 20:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 16:00:59.032287
- Title: Vehicle Cameras Guide mmWave Beams: Approach and Real-World V2V
Demonstration
- Title(参考訳): 車載カメラガイドmmWaveビーム:アプローチと実世界V2V実証
- Authors: Tawfik Osman, Gouranga Charan, and Ahmed Alkhateeb
- Abstract要約: ミリ波(mmWave)とテラヘルツ(THz)の細いビームの正確な整列は、5Gの信頼性と高いデータレートを満足し、無線通信システムを超えたものに不可欠である。
車両に装着した360度カメラの画像を用いて将来のビームを予測するための,V2Vシナリオのためのディープラーニングソリューションを開発した。
- 参考スコア(独自算出の注目度): 13.117333069558812
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately aligning millimeter-wave (mmWave) and terahertz (THz) narrow beams
is essential to satisfy reliability and high data rates of 5G and beyond
wireless communication systems. However, achieving this objective is difficult,
especially in vehicle-to-vehicle (V2V) communication scenarios, where both
transmitter and receiver are constantly mobile. Recently, additional sensing
modalities, such as visual sensors, have attracted significant interest due to
their capability to provide accurate information about the wireless
environment. To that end, in this paper, we develop a deep learning solution
for V2V scenarios to predict future beams using images from a 360 camera
attached to the vehicle. The developed solution is evaluated on a real-world
multi-modal mmWave V2V communication dataset comprising co-existing 360 camera
and mmWave beam training data. The proposed vision-aided solution achieves
$\approx 85\%$ top-5 beam prediction accuracy while significantly reducing the
beam training overhead. This highlights the potential of utilizing vision for
enabling highly-mobile V2V communications.
- Abstract(参考訳): ミリ波(mmWave)とテラヘルツ(THz)の細いビームの正確な整列は、5Gの信頼性と高いデータレートを満足し、無線通信システムを超えたものに不可欠である。
しかし、特に送信機と受信機の両方が常に移動しているv2v通信シナリオでは、この目標を達成することは困難である。
近年,ワイヤレス環境に関する正確な情報を提供する能力によって,視覚センサなどの付加的な感覚モダリティが注目されている。
そこで本稿では,車両に装着した360度カメラの画像を用いて,V2Vシナリオの深層学習ソリューションを開発し,将来のビームを予測する。
提案手法は、既存の360度カメラとmmWaveビームトレーニングデータからなる実世界のマルチモーダルmmWave V2V通信データセットを用いて評価する。
提案したビジョン支援ソリューションは,ビームトレーニングのオーバーヘッドを大幅に低減しつつ,トップ5ビーム予測精度を$85\%で達成する。
これは、高モバイルV2V通信を可能にするビジョンを活用する可能性を強調している。
関連論文リスト
- V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [45.001209388616736]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きバウンディングボックスがある。
多様な研究領域を容易にするために、協調的な知覚のためのV2X-Radar-C、道路側知覚のためのV2X-Radar-I、単車車知覚のためのV2X-Radar-Vを確立する。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - DeepSense-V2V: A Vehicle-to-Vehicle Multi-Modal Sensing, Localization, and Communications Dataset [12.007501768974281]
本研究は、mmWave車両間通信を研究するための、最初の大規模マルチモーダルデータセットを示す。
このデータセットには、日夜120kmの都市間および農村部で運転する車両が含まれており、最高速度は時速100kmである。
トラックから自転車まで、あらゆる画像から100万件以上の物体が検出されました。
論文 参考訳(メタデータ) (2024-06-25T19:43:49Z) - Position Aware 60 GHz mmWave Beamforming for V2V Communications
Utilizing Deep Learning [2.4993733210446893]
本稿では, 車両位置情報を利用して, 十分なmWave受信パワーを有する最適ビームを予測するための深層学習に基づく解を提案する。
その結果,提案手法は平均して84.58%のリンクステータスを受信できることがわかった。
論文 参考訳(メタデータ) (2024-02-02T09:30:27Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Millimeter Wave Drones with Cameras: Computer Vision Aided Wireless Beam
Prediction [8.919072533905517]
ミリ波(mmWave)とテラヘルツ(THz)のドローンは、いくつかの未来的な応用を可能にする可能性がある。
これらのドローンは、大きなアンテナアレイを配置し、十分なリンク予算を維持するために狭い指向ビームを使用する必要がある。
本稿では,ドローンに搭載されたカメラから収集した視覚データを活用する,視覚支援型機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-14T17:42:16Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Network-Aware 5G Edge Computing for Object Detection: Augmenting
Wearables to "See'' More, Farther and Faster [18.901994926291465]
本稿では,VIS4IONと呼ばれる強力なスマートウェアラブルにおいて,物体検出のための5G無線オフロードの詳細なシミュレーションと評価を行う。
現行のVIS4IONシステムは、高解像度カメラ、視覚処理、触覚とオーディオのフィードバックを備えた電子ブックバッグである。
本稿では,カメラデータをモバイルエッジクラウドにアップロードして,リアルタイムなオブジェクト検出と検出結果をウェアラブルに送信することを検討する。
論文 参考訳(メタデータ) (2021-12-25T07:09:00Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Applying Deep-Learning-Based Computer Vision to Wireless Communications:
Methodologies, Opportunities, and Challenges [100.45137961106069]
ディープラーニング(DL)はコンピュータビジョン(CV)分野で大きな成功を収めている。
本稿では,無線通信におけるDLベースのCVの適用について紹介する。
論文 参考訳(メタデータ) (2020-06-10T11:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。