論文の概要: Long Range Object-Level Monocular Depth Estimation for UAVs
- arxiv url: http://arxiv.org/abs/2302.08943v1
- Date: Fri, 17 Feb 2023 15:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 14:27:36.422994
- Title: Long Range Object-Level Monocular Depth Estimation for UAVs
- Title(参考訳): UAVの長距離物体レベル単分子深度推定
- Authors: David Silva, Nicolas Jourdan, Nils G\"ahlert
- Abstract要約: 本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision-based object detection is a key modality for advanced
Detect-And-Avoid systems that allow for autonomous flight missions of UAVs.
While standard object detection frameworks do not predict the actual depth of
an object, this information is crucial to avoid collisions. In this paper, we
propose several novel extensions to state-of-the-art methods for monocular
object detection from images at long range. Firstly, we propose Sigmoid and
ReLU-like encodings when modeling depth estimation as a regression task.
Secondly, we frame the depth estimation as a classification problem and
introduce a Soft-Argmax function in the calculation of the training loss. The
extensions are exemplarily applied to the YOLOX object detection framework. We
evaluate the performance using the Amazon Airborne Object Tracking dataset. In
addition, we introduce the Fitness score as a new metric that jointly assesses
both object detection and depth estimation performance. Our results show that
the proposed methods outperform state-of-the-art approaches w.r.t. existing, as
well as the proposed metrics.
- Abstract(参考訳): コンピュータビジョンに基づく物体検出は、UAVの自律飛行ミッションを可能にする先進的な検出・回避システムにとって重要なモダリティである。
標準オブジェクト検出フレームワークはオブジェクトの実際の深さを予測しないが、この情報は衝突を避けるために不可欠である。
本稿では,画像からのモノクル物体検出のための最先端手法の新たな拡張について提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に, 深さ推定を分類問題とし, トレーニング損失の計算にソフトargmax関数を導入する。
この拡張はYOLOXオブジェクト検出フレームワークに例示的に適用される。
Amazon Airborne Object Tracking データセットを用いて性能を評価する。
さらに,物体検出と深度推定の両性能を共同評価する新たな指標として,Fitnessスコアを導入する。
以上の結果から,提案手法は既存の手法よりも優れており,提案手法の指標も優れていることがわかった。
関連論文リスト
- On the Inherent Robustness of One-Stage Object Detection against Out-of-Distribution Data [6.7236795813629]
画像データ中の未知物体を検出する新しい検出アルゴリズムを提案する。
モデルによって抽出された特徴に対する次元の呪いの影響を軽減するために、教師付き次元削減技術を利用する。
これは高解像度の特徴マップを用いて、教師なしの方法で潜在的に未知の物体を識別する。
論文 参考訳(メタデータ) (2024-11-07T10:15:25Z) - TanDepth: Leveraging Global DEMs for Metric Monocular Depth Estimation in UAVs [5.6168844664788855]
本研究は,推定時間における相対的推定値から計量深度値を求めるための,実践的なオンラインスケール回復手法であるTanDepthを提案する。
本手法は無人航空機(UAV)の用途に応用され,GDEM(Global Digital Elevation Models)のスパース計測をカメラビューに投影することで活用する。
推定深度マップから接地点を選択して、投影された基準点と相関するクラスシミュレーションフィルタへの適応を示す。
論文 参考訳(メタデータ) (2024-09-08T15:54:43Z) - Ensuring UAV Safety: A Vision-only and Real-time Framework for Collision Avoidance Through Object Detection, Tracking, and Distance Estimation [16.671696289301625]
本稿では,光学センサを用いた非協調航空車両の検出・追跡・距離推定のためのディープラーニングフレームワークを提案する。
本研究では,単眼カメラの入力のみを用いて,検出された空中物体の距離情報をリアルタイムで推定する手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T18:06:41Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Incremental Object-Based Novelty Detection with Feedback Loop [18.453867533201308]
オブジェクトベースのノベルティ検出(ND)は、トレーニング中に見られるクラスに属さない未知のオブジェクトを特定することを目的としている。
従来のNDアプローチでは、事前訓練されたオブジェクト検出出力の1回のオフラインポスト処理に重点を置いていた。
本研究では,予測された出力に対して人間のフィードバックを要求できることを前提として,オブジェクトベースのNDのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-15T14:46:20Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。