論文の概要: OriCon3D: Effective 3D Object Detection using Orientation and Confidence
- arxiv url: http://arxiv.org/abs/2304.14484v3
- Date: Wed, 3 Jan 2024 06:34:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 17:07:00.021595
- Title: OriCon3D: Effective 3D Object Detection using Orientation and Confidence
- Title(参考訳): OriCon3D: オリエンテーションと信頼を用いた効果的な3次元オブジェクト検出
- Authors: Dhyey Manish Rajani, Surya Pratap Singh, Rahul Kashyap Swayampakula
- Abstract要約: 1つの画像から3次元物体を検出するための高度な手法を提案する。
我々は、深層畳み込みニューラルネットワークに基づく3Dオブジェクト重み付け指向回帰パラダイムを用いる。
提案手法は, 3次元オブジェクトのポーズ決定の精度を大幅に向上し, ベースライン法を超越した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose an advanced methodology for the detection of 3D
objects and precise estimation of their spatial positions from a single image.
Unlike conventional frameworks that rely solely on center-point and dimension
predictions, our research leverages a deep convolutional neural network-based
3D object weighted orientation regression paradigm. These estimates are then
seamlessly integrated with geometric constraints obtained from a 2D bounding
box, resulting in derivation of a comprehensive 3D bounding box. Our novel
network design encompasses two key outputs. The first output involves the
estimation of 3D object orientation through the utilization of a
discrete-continuous loss function. Simultaneously, the second output predicts
objectivity-based confidence scores with minimal variance. Additionally, we
also introduce enhancements to our methodology through the incorporation of
lightweight residual feature extractors. By combining the derived estimates
with the geometric constraints inherent in the 2D bounding box, our approach
significantly improves the accuracy of 3D object pose determination, surpassing
baseline methodologies. Our method is rigorously evaluated on the KITTI 3D
object detection benchmark, demonstrating superior performance.
- Abstract(参考訳): 本稿では,3次元物体検出のための高度手法と,その空間位置を1枚の画像から高精度に推定する手法を提案する。
中心点と次元の予測のみに依存する従来のフレームワークとは異なり、我々の研究は深層畳み込みニューラルネットワークに基づく3Dオブジェクト重み付け指向回帰パラダイムを活用する。
これらの推定は、2D境界ボックスから得られる幾何学的制約とシームレスに統合され、3D境界ボックスを導出する。
我々の新しいネットワーク設計は2つの重要な出力を含んでいる。
最初の出力は、離散連続損失関数の利用による3次元物体の向きの推定を含む。
同時に、第2の出力は、最小分散で客観性に基づく信頼度を予測する。
さらに, 軽量残像抽出器の導入による方法論の強化も導入した。
導出された推定値と2次元境界ボックスに固有の幾何学的制約を組み合わせることで,ベースライン法を超越した3次元オブジェクトポーズ決定の精度を大幅に向上する。
提案手法は,KITTI 3Dオブジェクト検出ベンチマークで厳密に評価され,優れた性能を示す。
関連論文リスト
- OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Joint Spatial-Temporal Optimization for Stereo 3D Object Tracking [34.40019455462043]
本研究では,空間時間最適化に基づくステレオ3次元物体追跡手法を提案する。
ネットワークから隣接画像上の対応する2Dバウンディングボックスを検出し,初期3Dバウンディングボックスを回帰する。
オブジェクトセントロイドに関連づけられた複雑なオブジェクトキューは、リージョンベースのネットワークを使用して予測される。
論文 参考訳(メタデータ) (2020-04-20T13:59:46Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。