論文の概要: Anchor Distance for 3D Multi-Object Distance Estimation from 2D Single
Shot
- arxiv url: http://arxiv.org/abs/2101.10399v2
- Date: Tue, 16 Feb 2021 17:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 22:35:58.904470
- Title: Anchor Distance for 3D Multi-Object Distance Estimation from 2D Single
Shot
- Title(参考訳): 2次元シングルショットからの3次元多物体距離推定のためのアンカー距離
- Authors: Hyeonwoo Yu and Jean Oh
- Abstract要約: シーン内の複数物体間の距離を,単写画像のみを用いてリアルタイムに推定する手法を提案する。
予測器がアンカー距離を使用する前に距離をキャッチし、距離に基づいてネットワークを訓練します。
提案手法は約30FPSの速度を実現し,既存の手法と比較して最低のRMSEを示す。
- 参考スコア(独自算出の注目度): 15.815583594196488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual perception of the objects in a 3D environment is a key to successful
performance in autonomous driving and simultaneous localization and mapping
(SLAM). In this paper, we present a real time approach for estimating the
distances to multiple objects in a scene using only a single-shot image. Given
a 2D Bounding Box (BBox) and object parameters, a 3D distance to the object can
be calculated directly using 3D reprojection; however, such methods are prone
to significant errors because an error from the 2D detection can be amplified
in 3D. In addition, it is also challenging to apply such methods to a real-time
system due to the computational burden. In the case of the traditional
multi-object detection methods, %they mostly pay attention to existing works
have been developed for specific tasks such as object segmentation or 2D BBox
regression. These methods introduce the concept of anchor BBox for elaborate 2D
BBox estimation, and predictors are specialized and trained for specific 2D
BBoxes. In order to estimate the distances to the 3D objects from a single 2D
image, we introduce the notion of \textit{anchor distance} based on an object's
location and propose a method that applies the anchor distance to the
multi-object detector structure. We let the predictors catch the distance prior
using anchor distance and train the network based on the distance. The
predictors can be characterized to the objects located in a specific distance
range. By propagating the distance prior using a distance anchor to the
predictors, it is feasible to perform the precise distance estimation and
real-time execution simultaneously. The proposed method achieves about 30 FPS
speed, and shows the lowest RMSE compared to the existing methods.
- Abstract(参考訳): 3D環境での物体の視覚的な認識は、自動運転と同時ローカリゼーションとマッピング(SLAM)におけるパフォーマンスの成功の鍵です。
本稿では,シーン内の複数物体間の距離を,単写画像のみを用いてリアルタイムに推定する手法を提案する。
2Dバウンディングボックス(BBox)とオブジェクトパラメータが与えられた場合、オブジェクトへの3D距離は3D再投影を用いて直接計算できるが、2D検出からの誤差を3Dで増幅できるため、大きなエラーが発生する。
また,計算負荷のため,このような手法をリアルタイムシステムに適用することは困難である。
従来のマルチオブジェクト検出手法の場合、%はオブジェクト分割や2D BBox回帰などの特定のタスクのために開発されている既存の作業に注意を払います。
これらの手法は2次元BBox推定のためのアンカーBBoxの概念を導入し、予測器は特定の2次元BBoxを専門的に訓練する。
一つの2次元画像から3次元物体の距離を推定するために,物体の位置に基づく \textit{anchor distance} の概念を導入し,マルチオブジェクト検出器構造にアンカー距離を適用する手法を提案する。
予測器がアンカー距離を使用する前に距離をキャッチし、距離に基づいてネットワークを訓練します。
予測器は、特定の距離範囲に位置する物体を特徴付けることができる。
予測器に距離アンカーを用いて予め距離を伝搬することにより、正確な距離推定とリアルタイム実行を同時に行うことができる。
提案手法は約30FPSの速度を実現し,既存の手法と比較して最低のRMSEを示す。
関連論文リスト
- Improving Distant 3D Object Detection Using 2D Box Supervision [97.80225758259147]
遠方の物体の欠損した深さを回復するフレームワークであるLR3Dを提案する。
我々のフレームワークは汎用的であり、3D検出手法を広く活用する可能性がある。
論文 参考訳(メタデータ) (2024-03-14T09:54:31Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - OSOP: A Multi-Stage One Shot Object Pose Estimation Framework [35.89334617258322]
対象物検出のための新しいワンショット手法と,対象物に対する訓練を必要としない6DoFポーズ推定を提案する。
テスト時には、ターゲット画像とテクスチャ化された3Dクエリモデルを入力する。
The method on LineMOD, Occlusion, Homebrewed, YCB-V and TLESS datasets。
論文 参考訳(メタデータ) (2022-03-29T13:12:00Z) - Absolute distance prediction based on deep learning object detection and
monocular depth estimation models [10.563101152143817]
本稿では,1つの画像を用いた深度推定と物体検出のための2つの深度ネットワークからなる深度学習フレームワークを提案する。
提案したフレームワークは有望であり、RMSEの精度は96%、RMSEの精度は0.203である。
論文 参考訳(メタデータ) (2021-11-02T16:29:13Z) - DETR3D: 3D Object Detection from Multi-view Images via 3D-to-2D Queries [43.02373021724797]
マルチカメラ3Dオブジェクト検出のためのフレームワークを提案する。
本手法は3次元空間での予測を直接操作する。
我々はnuScenes自動運転ベンチマークで最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-10-13T17:59:35Z) - Geometry-based Distance Decomposition for Monocular 3D Object Detection [48.63934632884799]
本研究では,その要因により距離を回復する新しい幾何学的距離分解法を提案する。
分解の要因は、最も代表的かつ安定な変数へのオブジェクトの距離である。
RGB画像から3Dバウンディングボックスをコンパクトなアーキテクチャで直接予測します。
論文 参考訳(メタデータ) (2021-04-08T13:57:30Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。