論文の概要: Multi-Modal Sensing Aided mmWave Beamforming for V2V Communications with Transformers
- arxiv url: http://arxiv.org/abs/2509.11112v1
- Date: Sun, 14 Sep 2025 06:03:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.925449
- Title: Multi-Modal Sensing Aided mmWave Beamforming for V2V Communications with Transformers
- Title(参考訳): 変圧器を用いたV2V通信のためのマルチモーダルセンシング支援ミリ波ビームフォーミング
- Authors: Muhammad Baqer Mollah, Honggang Wang, Hua Fang,
- Abstract要約: このようなオーバーヘッドを減らすための代替手段として,マルチモーダルセンシングと融合学習フレームワークを提案する。
本稿では,まず視覚とGPSの座標から,モダリティ特異的エンコーダによるモダリティ検出から特徴を抽出する。
次に、マルチモーダルな特徴を融合させて予測トップkビームを得ることにより、最高の視線リンクを積極的に確立する。
- 参考スコア(独自算出の注目度): 1.9483189922830135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beamforming techniques are utilized in millimeter wave (mmWave) communication to address the inherent path loss limitation, thereby establishing and maintaining reliable connections. However, adopting standard defined beamforming approach in highly dynamic vehicular environments often incurs high beam training overheads and reduces the available airtime for communications, which is mainly due to exchanging pilot signals and exhaustive beam measurements. To this end, we present a multi-modal sensing and fusion learning framework as a potential alternative solution to reduce such overheads. In this framework, we first extract the features individually from the visual and GPS coordinates sensing modalities by modality specific encoders, and subsequently fuse the multimodal features to obtain predicted top-k beams so that the best line-of-sight links can be proactively established. To show the generalizability of the proposed framework, we perform a comprehensive experiment in four different vehicle-to-vehicle (V2V) scenarios from real-world multi-modal sensing and communication dataset. From the experiment, we observe that the proposed framework achieves up to 77.58% accuracy on predicting top-15 beams correctly, outperforms single modalities, incurs roughly as low as 2.32 dB average power loss, and considerably reduces the beam searching space overheads by 76.56% for top-15 beams with respect to standard defined approach.
- Abstract(参考訳): ビームフォーミング技術はミリ波(mmWave)通信において、固有の経路損失制限に対処し、信頼性の高い接続を確立し維持する。
しかし、高ダイナミックな車両環境における標準的なビームフォーミングアプローチを採用すると、しばしば高いビームトレーニングオーバーヘッドが発生し、主にパイロット信号の交換と排気ビーム測定による通信の空き時間を削減する。
この目的のために,このようなオーバーヘッドを減らすための代替手段として,マルチモーダルセンシング・融合学習フレームワークを提案する。
本稿では,まず視覚とGPSの座標から,モダリティを特定エンコーダによって検出する特徴を個別に抽出し,その後,マルチモーダル特徴を融合させて予測されたトップkビームを得ることにより,最高の視線リンクを積極的に確立する。
提案手法の汎用性を示すため,実世界のマルチモーダルセンシングと通信データセットから,車両間通信(V2V)の4つのシナリオを総合的に検討した。
実験から,提案手法は,トップ15ビームを正確に予測する上で最大77.58%の精度を実現し,単一のモダリティを上回り,平均電力損失2.32dBとほぼ低くなり,標準的アプローチでトップ15ビームの探索空間オーバーヘッドを76.56%削減する。
関連論文リスト
- Multi-Modality Sensing in mmWave Beamforming for Connected Vehicles Using Deep Learning [2.2879063461015425]
本稿では,mmWave受信出力が十分である最適ビームの予測に,マルチモーダルセンシングデータを活用するためのディープラーニングベースのソリューションを提案する。
結果は、トップ13ビームを予測しながら98.19%の精度を達成できることを示している。
論文 参考訳(メタデータ) (2025-04-08T16:18:00Z) - Resource-Efficient Beam Prediction in mmWave Communications with Multimodal Realistic Simulation Framework [57.994965436344195]
ビームフォーミングは、方向と強度を最適化して信号伝送を改善するミリ波通信において重要な技術である。
マルチモーダルセンシング支援ビーム予測は,ユーザ位置やネットワーク条件を予測するために,さまざまなセンサデータを使用して注目されている。
その有望な可能性にもかかわらず、マルチモーダルセンシング支援ビーム予測の採用は、高い計算複雑性、高いコスト、限られたデータセットによって妨げられている。
論文 参考訳(メタデータ) (2025-04-07T15:38:25Z) - Position Aware 60 GHz mmWave Beamforming for V2V Communications
Utilizing Deep Learning [2.4993733210446893]
本稿では, 車両位置情報を利用して, 十分なmWave受信パワーを有する最適ビームを予測するための深層学習に基づく解を提案する。
その結果,提案手法は平均して84.58%のリンクステータスを受信できることがわかった。
論文 参考訳(メタデータ) (2024-02-02T09:30:27Z) - MIMO-DBnet: Multi-channel Input and Multiple Outputs DOA-aware
Beamforming Network for Speech Separation [55.533789120204055]
混合信号のみを用いた方向案内音声分離のためのエンドツーエンドビームフォーミングネットワークを提案する。
具体的には,複数チャネルの入力と複数出力アーキテクチャを設計し,各ソースの指向性に基づく埋め込みとビームフォーミング重みを推定する。
論文 参考訳(メタデータ) (2022-12-07T01:52:40Z) - Fast Beam Alignment via Pure Exploration in Multi-armed Bandits [91.11360914335384]
我々は,ミリ波通信におけるBAレイテンシを低減するために,帯域幅に基づく高速BAアルゴリズムを開発した。
我々のアルゴリズムは2相ヘテロセダスティックトラック・アンド・ストップ (2PHT&S) と呼ばれる。
論文 参考訳(メタデータ) (2022-10-23T05:57:39Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - Deep Learning on Multimodal Sensor Data at the Wireless Edge for
Vehicular Network [8.458980329342799]
本稿では,LiDAR,カメラ画像,GPSなどのセンサから収集したマルチモーダルデータを活用することで,ビーム選択を高速化する手法を提案する。
本研究では,モバイル・エッジ・コンピューティング・センターだけでなく,ローカルでも実行可能な個別かつ分散融合型ディープラーニング(F-DL)アーキテクチャを提案する。
市販の合成および自家用実世界のデータセットに対する広範な評価の結果、古典的なRFのみのビームスイーピングよりも95%と96%のビーム選択速度が向上したことが明らかとなった。
論文 参考訳(メタデータ) (2022-01-12T21:55:34Z) - A Novel Look at LIDAR-aided Data-driven mmWave Beam Selection [24.711393214172148]
軽量ニューラルネットワーク(NN)アーキテクチャとそれに対応するLIDARプリプロセッシングを提案する。
nnベースのビーム選択方式は、ビーム探索のオーバーヘッドなしに79.9%のスループットを達成でき、95%のスループットを6ビーム以内で探索できる。
論文 参考訳(メタデータ) (2021-04-29T18:07:31Z) - Deep Learning-based Compressive Beam Alignment in mmWave Vehicular
Systems [75.77033270838926]
車両用チャネルは、より少ないチャネル測定でビームアライメントに活用できる構造を示す。
構造化圧縮センシング(CS)行列を設計するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-02-27T04:38:12Z) - Codebook-Based Beam Tracking for Conformal ArrayEnabled UAV MmWave Networks [33.52271582081627]
ミリ波(mmWave)通信は無人航空機(UAV)ネットワークの高データレート要件を満たす可能性がある。
mmWave通信の前提条件として,UAVの3次元移動と姿勢変化のため,狭方向ビーム追跡は非常に困難である。
本研究では,UAVの両面にコンフォメーションアレイを組み込むことにより,高ダイナミックUAVmmWaveネットワークにおける全空間カバレッジとアジャイルビームトラッキングを実現することを提案する。
論文 参考訳(メタデータ) (2020-05-28T14:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。