論文の概要: Millimeter Wave Drones with Cameras: Computer Vision Aided Wireless Beam
Prediction
- arxiv url: http://arxiv.org/abs/2211.07569v1
- Date: Mon, 14 Nov 2022 17:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 20:20:20.224966
- Title: Millimeter Wave Drones with Cameras: Computer Vision Aided Wireless Beam
Prediction
- Title(参考訳): カメラ搭載ミリ波ドローン:コンピュータビジョンによる無線ビーム予測
- Authors: Gouranga Charan, Andrew Hredzak, and Ahmed Alkhateeb
- Abstract要約: ミリ波(mmWave)とテラヘルツ(THz)のドローンは、いくつかの未来的な応用を可能にする可能性がある。
これらのドローンは、大きなアンテナアレイを配置し、十分なリンク予算を維持するために狭い指向ビームを使用する必要がある。
本稿では,ドローンに搭載されたカメラから収集した視覚データを活用する,視覚支援型機械学習アプローチを提案する。
- 参考スコア(独自算出の注目度): 8.919072533905517
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Millimeter wave (mmWave) and terahertz (THz) drones have the potential to
enable several futuristic applications such as coverage extension, enhanced
security monitoring, and disaster management. However, these drones need to
deploy large antenna arrays and use narrow directive beams to maintain a
sufficient link budget. The large beam training overhead associated with these
arrays makes adjusting these narrow beams challenging for highly-mobile drones.
To address these challenges, this paper proposes a vision-aided machine
learning-based approach that leverages visual data collected from cameras
installed on the drones to enable fast and accurate beam prediction. Further,
to facilitate the evaluation of the proposed solution, we build a synthetic
drone communication dataset consisting of co-existing wireless and visual data.
The proposed vision-aided solution achieves a top-$1$ beam prediction accuracy
of $\approx 91\%$ and close to $100\%$ top-$3$ accuracy. These results
highlight the efficacy of the proposed solution towards enabling highly mobile
mmWave/THz drone communication.
- Abstract(参考訳): ミリ波(mmWave)とテラヘルツ(THz)ドローンは、カバー範囲の拡張、セキュリティ監視の強化、災害管理などの未来的な応用を可能にする可能性がある。
しかし、これらのドローンは大きなアンテナアレイを配置し、十分なリンク予算を維持するために狭い指向ビームを使用する必要がある。
これらのアレイに付随する大きなビームトレーニングのオーバーヘッドは、これらの狭いビームを調整することを妨げる。
これらの課題に対処するため,本稿では,ドローンに搭載されたカメラから収集した視覚データを活用して,高速かつ正確なビーム予測を実現する視覚支援機械学習手法を提案する。
さらに,提案手法の評価を容易にするため,既存の無線データと視覚データを組み合わせた合成ドローン通信データセットを構築した。
提案したビジョン支援ソリューションは、1ドル以上のビーム予測精度を$\approx 91\%$、100ドルに近い$3$$$で達成する。
これらの結果は,高度に移動可能なmmWave/THzドローン通信の実現に向けた提案手法の有効性を強調した。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Vehicle Cameras Guide mmWave Beams: Approach and Real-World V2V
Demonstration [13.117333069558812]
ミリ波(mmWave)とテラヘルツ(THz)の細いビームの正確な整列は、5Gの信頼性と高いデータレートを満足し、無線通信システムを超えたものに不可欠である。
車両に装着した360度カメラの画像を用いて将来のビームを予測するための,V2Vシナリオのためのディープラーニングソリューションを開発した。
論文 参考訳(メタデータ) (2023-08-20T20:43:11Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Neural Myerson Auction for Truthful and Energy-Efficient Autonomous
Aerial Data Delivery [9.986880167690364]
厳密な通信条件下で収集した監視データを転送するデータ配信ドローンを導入する。
本稿では,空中分散データプラットフォームにおけるMyersonオークションに基づく非同期データ配信を提案する。
論文 参考訳(メタデータ) (2021-12-29T12:14:34Z) - DronePose: The identification, segmentation, and orientation detection
of drones via neural networks [3.161871054978445]
飛行中のドローンを完全に特徴付けるために,決定木とアンサンブル構造を用いたCNNを提案する。
我々のシステムは、ドローンの種類、方向(ピッチ、ロール、ヨー)を決定し、異なる身体部位を分類するためにセグメンテーションを行う。
また,高精度にラベル付けされた写真リアリスティックトレーニングデータを高速に生成するためのコンピュータモデルも提供する。
論文 参考訳(メタデータ) (2021-12-10T12:34:53Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Vision-based Drone Flocking in Outdoor Environments [9.184987303791292]
このレターでは、ドローン群に対する視覚に基づく検出と追跡アルゴリズムを提案する。
我々は畳み込みニューラルネットワークを用いてクワッドコプターの近傍のエージェントをリアルタイムで検出・ローカライズする。
背景が乱雑で照明が難しいにもかかわらず、ドローンは屋外環境で安全に航行できることが示される。
論文 参考訳(メタデータ) (2020-12-02T14:44:40Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。