論文の概要: EKF-Based Depth Camera and Deep Learning Fusion for UAV-Person Distance Estimation and Following in SAR Operations
- arxiv url: http://arxiv.org/abs/2602.20958v1
- Date: Tue, 24 Feb 2026 14:37:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.790444
- Title: EKF-Based Depth Camera and Deep Learning Fusion for UAV-Person Distance Estimation and Following in SAR Operations
- Title(参考訳): EKFを用いた深度カメラとUAVパーソン距離推定のための深度融合
- Authors: Luka Šiktar, Branimir Ćaran, Bojan Šekoranja, Marko Švaco,
- Abstract要約: 視覚に基づくUAVは、特定の個人を検出して認識し、安全な距離を維持しながら追跡、追跡することで、人間の検索タスクを支援する。
UAVに対する重要な安全性要件は、現実の条件下でのカメラと対象物の距離を正確に推定することである。
本稿では,ロバストトラッキングと追従のための深度カメラ計測と単眼カメラ間距離推定の融合について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Search and rescue (SAR) operations require rapid responses to save lives or property. Unmanned Aerial Vehicles (UAVs) equipped with vision-based systems support these missions through prior terrain investigation or real-time assistance during the mission itself. Vision-based UAV frameworks aid human search tasks by detecting and recognizing specific individuals, then tracking and following them while maintaining a safe distance. A key safety requirement for UAV following is the accurate estimation of the distance between camera and target object under real-world conditions, achieved by fusing multiple image modalities. UAVs with deep learning-based vision systems offer a new approach to the planning and execution of SAR operations. As part of the system for automatic people detection and face recognition using deep learning, in this paper we present the fusion of depth camera measurements and monocular camera-to-body distance estimation for robust tracking and following. Deep learning-based filtering of depth camera data and estimation of camera-to-body distance from a monocular camera are achieved with YOLO-pose, enabling real-time fusion of depth information using the Extended Kalman Filter (EKF) algorithm. The proposed subsystem, designed for use in drones, estimates and measures the distance between the depth camera and the human body keypoints, to maintain the safe distance between the drone and the human target. Our system provides an accurate estimated distance, which has been validated against motion capture ground truth data. The system has been tested in real time indoors, where it reduces the average errors, root mean square error (RMSE) and standard deviations of distance estimation up to 15,3\% in three tested scenarios.
- Abstract(参考訳): 捜索救助(SAR)活動は、生命や財産を救うために迅速に対応する必要がある。
無人航空車両 (UAV) はビジョンベースのシステムを備えており、以前の地形調査やミッション自体のリアルタイム支援を通じてこれらのミッションを支援している。
視覚に基づくUAVフレームワークは、特定の個人を検出して認識し、安全な距離を維持しながら追跡、追跡することにより、人間の検索タスクを支援する。
UAVにおける重要な安全性要件は、現実の条件下でのカメラと対象物の距離を正確に推定することであり、複数の画像モダリティを融合させることによって達成される。
ディープラーニングベースの視覚システムを備えたUAVは、SARオペレーションの計画と実行に新たなアプローチを提供する。
本稿では,ディープ・ラーニングを用いた人物の自動検出・顔認識システムの一環として,ディープ・カメラ計測とモノクロ・カメラ間距離推定の融合によるロバストな追跡と追跡について述べる。
深度カメラデータのディープラーニングに基づくフィルタリングと、単眼カメラからのカメラ間距離の推定をYOLO-poseで達成し、拡張カルマンフィルタ(EKF)アルゴリズムを用いてリアルタイムに深度情報の融合を可能にする。
提案するサブシステムは、ドローンと人体との安全な距離を維持するために、深度カメラと人体キーポイントの間の距離を推定し、測定する。
本システムでは, 正確な推定距離を推定し, 実測地真実データに対して検証した。
システムは屋内でリアルタイムにテストされており、3つのテストシナリオで平均誤差、ルート平均二乗誤差(RMSE)、標準偏差を最大15,3\%まで低減している。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Active Human Pose Estimation via an Autonomous UAV Agent [13.188563931419056]
本稿では,人の行動を捉えた映像から人間のポーズ推定を行うタスクに焦点を当てる。
これを解決するためには、ビューを明確にするために、カメラを新しいベタージュポイントに移す必要がある。
提案手法は、NeRFベースのDrone-Viewデータ生成フレームワーク、カメラビューエラー推定のためのOn-Drone Network、複合プランナーの3つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2024-07-01T21:20:52Z) - Ensuring UAV Safety: A Vision-only and Real-time Framework for Collision Avoidance Through Object Detection, Tracking, and Distance Estimation [16.671696289301625]
本稿では,光学センサを用いた非協調航空車両の検出・追跡・距離推定のためのディープラーニングフレームワークを提案する。
本研究では,単眼カメラの入力のみを用いて,検出された空中物体の距離情報をリアルタイムで推定する手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T18:06:41Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Safe Vessel Navigation Visually Aided by Autonomous Unmanned Aerial
Vehicles in Congested Harbors and Waterways [9.270928705464193]
この研究は、従来のRGBカメラと補助的な絶対位置決めシステム(GPSなど)で捉えた長距離視覚データから未知の物体までの距離を検知し推定する最初の試みである。
シミュレーション結果は,UAV支援艦艇の視覚支援航法における提案手法の精度と有効性を示すものである。
論文 参考訳(メタデータ) (2021-08-09T08:15:17Z) - Single View Physical Distance Estimation using Human Pose [18.9877515094788]
本稿では,1枚のRGB画像やビデオからカメラ内在物,地上面,人物間の物理的距離を同時に推定する完全自動システムを提案する。
提案手法により、既存のカメラシステムは、専用のキャリブレーションプロセスやレンジセンサーを必要とせず、物理的距離を測定することができる。
その結果,ポーズに基づく自動校正と距離推定の問題に対して,MEVADAが世界初となる評価ベンチマークとなった。
論文 参考訳(メタデータ) (2021-06-18T19:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。