論文の概要: Deep Learning based Multi-Modal Sensing for Tracking and State
Extraction of Small Quadcopters
- arxiv url: http://arxiv.org/abs/2012.04794v1
- Date: Tue, 8 Dec 2020 23:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 18:04:57.607539
- Title: Deep Learning based Multi-Modal Sensing for Tracking and State
Extraction of Small Quadcopters
- Title(参考訳): 深層学習に基づくマルチモーダルセンシングによる小型クワッドコプターの追跡と状態抽出
- Authors: Zhibo Zhang, Chen Zeng, Maulikkumar Dhameliya, Souma Chowdhury, Rahul
Rai
- Abstract要約: 本稿では, クワッドコプター無人航空機(UAV)の検出, 追跡, ローカライズのためのマルチセンサ方式を提案する。
具体的には、FoV内のUAVを検出し、追跡するために、単眼のRGBとサーマルビデオ(固定されたプラットフォームからキャプチャする)を処理するパイプラインが開発されている。
2次元平面ライダーは、画素データの実際の距離測定への変換を可能にし、グローバル座標におけるUAVの局所化を可能にする。
- 参考スコア(独自算出の注目度): 3.019035926889528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a multi-sensor based approach to detect, track, and
localize a quadcopter unmanned aerial vehicle (UAV). Specifically, a pipeline
is developed to process monocular RGB and thermal video (captured from a fixed
platform) to detect and track the UAV in our FoV. Subsequently, a 2D planar
lidar is used to allow conversion of pixel data to actual distance
measurements, and thereby enable localization of the UAV in global coordinates.
The monocular data is processed through a deep learning-based object detection
method that computes an initial bounding box for the UAV. The thermal data is
processed through a thresholding and Kalman filter approach to detect and track
the bounding box. Training and testing data are prepared by combining a set of
original experiments conducted in a motion capture environment and publicly
available UAV image data. The new pipeline compares favorably to existing
methods and demonstrates promising tracking and localization capacity of sample
experiments.
- Abstract(参考訳): 本稿では,クワッドコプター無人航空機(uav)の検出,追跡,ローカライズのためのマルチセンサ方式を提案する。
具体的には、FoV内のUAVを検出し追跡するために、単眼のRGBと熱ビデオ(固定プラットフォームから撮影)を処理するパイプラインが開発されている。
その後、2次元平面ライダーを用いて画素データの実際の距離測定への変換を可能にし、グローバル座標におけるUAVのローカライズを可能にする。
単分子データは、UAVの初期バウンディングボックスを計算するディープラーニングベースのオブジェクト検出方法により処理される。
熱データはしきい値とカルマンフィルタを用いて処理され、境界ボックスを検出し追跡する。
モーションキャプチャ環境で実施された一連の実験と、公開されているUAV画像データを組み合わせることで、トレーニングデータとテストデータを作成する。
新しいパイプラインは既存の手法と比較し、サンプル実験の有望なトラッキングとローカライゼーション能力を示す。
関連論文リスト
- UAVDB: Trajectory-Guided Adaptable Bounding Boxes for UAV Detection [0.03464344220266879]
パッチ強度収束(Patch Intensity Convergence、PIC)技術は、手動ラベリングなしでUAV検出のための高忠実なバウンディングボックスを生成する。
この技術は、UAV検出に特化した専用データベースであるUAVDBの基礎となる。
我々は,最先端(SOTA)YOLO系列検出器を用いてUAVDBをベンチマークし,総合的な性能解析を行った。
論文 参考訳(メタデータ) (2024-09-09T13:27:53Z) - UAV-Based Human Body Detector Selection and Fusion for Geolocated Saliency Map Generation [0.2499907423888049]
無人航空機(UAV)を用いた探索・救助など多くの応用分野において、ソフトリアルタイムの異なるクラスの物体を確実に検出・位置決めする問題は不可欠である。
本研究は、システムコンテキストの視覚に基づく検出器の選択、割り当て、実行の相補的な問題に対処する。
検出結果は,新しいセンサモデルを利用して,正と負の両方の観測を視覚ベースで検出する,有意な位置の地図を構築する手法を用いて融合される。
論文 参考訳(メタデータ) (2024-08-29T13:00:37Z) - Multi-Modal UAV Detection, Classification and Tracking Algorithm -- Technical Report for CVPR 2024 UG2 Challenge [20.459377705070043]
本報告では, CVPR 2024 UAV追跡・姿勢推定チャレンジにおける課題であるUG2+の初当選モデルについて述べる。
高精度なUAV分類・追跡のためのマルチモーダルなUAV検出・分類・3次元追跡手法を提案する。
本システムでは,最先端の分類手法と高度な後処理手順を統合し,精度と堅牢性を向上する。
論文 参考訳(メタデータ) (2024-05-26T07:21:18Z) - Radio Map Estimation -- An Open Dataset with Directive Transmitter
Antennas and Initial Experiments [49.61405888107356]
実世界の現実的な都市地図とオープンなデータソースからの航空画像とともに、シミュレーションされた経路損失無線マップのデータセットをリリースする。
モデルアーキテクチャ,入力特徴設計,航空画像からの無線マップの推定に関する実験を行った。
論文 参考訳(メタデータ) (2024-01-12T14:56:45Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - A Pedestrian Detection and Tracking Framework for Autonomous Cars:
Efficient Fusion of Camera and LiDAR Data [0.17205106391379021]
本稿では,カメラとLiDARセンサデータを用いた歩行者検出と追跡のための新しい手法を提案する。
検出フェーズは、LiDARストリームを計算的に抽出可能な深度画像に変換し、さらに、歩行者候補を特定するディープニューラルネットワークを開発する。
トラッキングフェーズは、Kalmanフィルタ予測と、シーン内の複数の歩行者を追跡するための光フローアルゴリズムの組み合わせである。
論文 参考訳(メタデータ) (2021-08-27T16:16:01Z) - Brain over Brawn -- Using a Stereo Camera to Detect, Track and Intercept
a Faster UAV by Reconstructing Its Trajectory [2.1638817206926855]
本稿では,MBZIRC 2020 Challenge 1に触発された高速侵入型UAVのインターセプト手法について述べる。
侵入者の軌道の形状を活用することで、インターセプションポイントを計算することができる。
このシステムは、ほとんどのシミュレーション実験において、インターセプターよりも30%速いターゲットを追跡し、インターセプトすることができる。
論文 参考訳(メタデータ) (2021-07-02T10:49:22Z) - Self-Supervised Person Detection in 2D Range Data using a Calibrated
Camera [83.31666463259849]
2次元LiDARに基づく人検出器のトレーニングラベル(擬似ラベル)を自動生成する手法を提案する。
擬似ラベルで訓練または微調整された自己監視検出器が,手動アノテーションを用いて訓練された検出器を上回っていることを示した。
私達の方法は付加的な分類の努力なしで配置の間に人の探知器を改善する有効な方法です。
論文 参考訳(メタデータ) (2020-12-16T12:10:04Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。