論文の概要: BatMobility: Towards Flying Without Seeing for Autonomous Drones
- arxiv url: http://arxiv.org/abs/2307.11518v1
- Date: Fri, 21 Jul 2023 12:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 12:44:01.623667
- Title: BatMobility: Towards Flying Without Seeing for Autonomous Drones
- Title(参考訳): BatMobility:無人ドローンを見ずに飛行を目指す
- Authors: Emerson Sie, Zikun Liu, Deepak Vasisht
- Abstract要約: 光センサーは、悪い照明、霧や煙を含む不規則な気象条件、テクスチャレスや透明な表面の周囲でエラーを起こしやすい。
我々は、コモディティセンサーを使用してBatMobilityを構築し、未修正の飛行制御装置を実行する小型クワッドコプターにリアルタイムシステムとして展開する。
評価の結果,BatMobilityは様々なシナリオにおいて,市販の光学センサと同等あるいは同等の性能を発揮することがわかった。
- 参考スコア(独自算出の注目度): 0.6146344887499435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned aerial vehicles (UAVs) rely on optical sensors such as cameras and
lidar for autonomous operation. However, such optical sensors are error-prone
in bad lighting, inclement weather conditions including fog and smoke, and
around textureless or transparent surfaces. In this paper, we ask: is it
possible to fly UAVs without relying on optical sensors, i.e., can UAVs fly
without seeing? We present BatMobility, a lightweight mmWave radar-only
perception system for UAVs that eliminates the need for optical sensors.
BatMobility enables two core functionalities for UAVs -- radio flow estimation
(a novel FMCW radar-based alternative for optical flow based on
surface-parallel doppler shift) and radar-based collision avoidance. We build
BatMobility using commodity sensors and deploy it as a real-time system on a
small off-the-shelf quadcopter running an unmodified flight controller. Our
evaluation shows that BatMobility achieves comparable or better performance
than commercial-grade optical sensors across a wide range of scenarios.
- Abstract(参考訳): 無人航空機(uavs)は、カメラやライダーなどの光学センサーを利用して自律運転を行う。
しかし、このような光学センサーは、照明の悪さ、霧や煙などの悪天候、テクスチャレスや透明な表面の周囲でエラーを起こしやすい。
この論文では、光学センサーを使わずにUAVを飛行することは可能か、つまり、UAVは見えずに飛べるのか、と問う。
本稿では,光センサを不要としたUAV用軽量ミリ波レーダー認識システムBatMobilityを提案する。
BatMobilityは、UAVの2つのコア機能 - ラジオフロー推定(表面並列ドップラーシフトに基づく新しいFMCWレーダーベースの光学フロー代替)とレーダーベースの衝突回避 - を可能にする。
我々は、コモディティセンサーを使用してBatMobilityを構築し、未修正の飛行制御装置を実行する小型クワッドコプターにリアルタイムシステムとして展開する。
評価の結果,BatMobilityは様々なシナリオにおいて,市販の光学センサと同等あるいは同等の性能を発揮することがわかった。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Towards Real-Time Fast Unmanned Aerial Vehicle Detection Using Dynamic Vision Sensors [6.03212980984729]
無人航空機(UAV)は民間や軍事用途で人気を集めている。
UAVの予防と検出は、機密性と安全性を保証するために重要である。
本稿では,F-UAV-D(Fast Unmanned Aerial Vehicle Detector)を提案する。
論文 参考訳(メタデータ) (2024-03-18T15:27:58Z) - Radarize: Enhancing Radar SLAM with Generalizable Doppler-Based Odometry [9.420543997290126]
Radarizeは、コモディティ単一チップmmWaveレーダーのみを使用する、自己完結型SLAMパイプラインである。
本手法は,最先端のレーダおよびレーダ慣性アプローチを計測値で約5倍,エンドツーエンドのSLAMで約8倍に向上する。
論文 参考訳(メタデータ) (2023-11-19T07:47:11Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - CNN-based Human Detection for UAVs in Search and Rescue [0.0]
本稿では,畳み込み型ニューラルネットワーク技術を用いて,被害者の探索と検出を行う手法を提案する。
この研究で使用されるモデルは事前訓練されたモデルであり、クアッドコプターに取り付けられたRaspberry PiモデルB上でのテストに適用される。
実験の結果、Quadcopterは安定して飛行でき、SSDモデルは3fpsの処理速度でRaspberry PiモデルBでうまく動作することがわかった。
論文 参考訳(メタデータ) (2021-10-05T10:43:10Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。