論文の概要: Revisiting 3D Object Detection From an Egocentric Perspective
- arxiv url: http://arxiv.org/abs/2112.07787v1
- Date: Tue, 14 Dec 2021 23:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 16:49:55.316037
- Title: Revisiting 3D Object Detection From an Egocentric Perspective
- Title(参考訳): エゴセントリックから見た3次元物体検出の再検討
- Authors: Boyang Deng, Charles R. Qi, Mahyar Najibi, Thomas Funkhouser, Yin
Zhou, Dragomir Anguelov
- Abstract要約: 3Dオブジェクト検出は、自律運転のような安全クリティカルなロボティクスアプリケーションのための重要なモジュールである。
我々は、エゴエージェントの軌道に干渉しがちな物体形状のより正確な記述を求める。
我々は,3次元物体検出,すなわちSDE(Support Distance Error)を評価するための新しいエゴセントリック尺度を提案する。
- 参考スコア(独自算出の注目度): 25.48667111413713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection is a key module for safety-critical robotics applications
such as autonomous driving. For these applications, we care most about how the
detections affect the ego-agent's behavior and safety (the egocentric
perspective). Intuitively, we seek more accurate descriptions of object
geometry when it's more likely to interfere with the ego-agent's motion
trajectory. However, current detection metrics, based on box
Intersection-over-Union (IoU), are object-centric and aren't designed to
capture the spatio-temporal relationship between objects and the ego-agent. To
address this issue, we propose a new egocentric measure to evaluate 3D object
detection, namely Support Distance Error (SDE). Our analysis based on SDE
reveals that the egocentric detection quality is bounded by the coarse geometry
of the bounding boxes. Given the insight that SDE would benefit from more
accurate geometry descriptions, we propose to represent objects as amodal
contours, specifically amodal star-shaped polygons, and devise a simple model,
StarPoly, to predict such contours. Our experiments on the large-scale Waymo
Open Dataset show that SDE better reflects the impact of detection quality on
the ego-agent's safety compared to IoU; and the estimated contours from
StarPoly consistently improve the egocentric detection quality over recent 3D
object detectors.
- Abstract(参考訳): 3dオブジェクト検出は、自動運転のような安全クリティカルなロボティクスアプリケーションにとって重要なモジュールである。
これらのアプリケーションでは、検出がエゴエージェントの行動と安全性(エゴ中心的な視点)にどのように影響するかを最も注意する。
直感的には、エゴエージェントの動き軌道に干渉しやすい場合、オブジェクトの幾何学をより正確な記述を求める。
しかしながら、IoU(box Intersection-over-Union)に基づく現在の検出メトリクスは、オブジェクト中心であり、オブジェクトとエゴエージェント間の時空間的関係をキャプチャするために設計されていない。
この問題に対処するために,我々は3次元オブジェクト検出,すなわちSDE(Support Distance Error)を評価するための新しいエゴセントリック尺度を提案する。
SDEに基づく解析により,エゴセントリックな検出品質は,境界ボックスの粗い形状によって境界づけられていることが判明した。
SDEがより正確な幾何学的記述の恩恵を受けるという知見を踏まえ、対象をアモーダルな輪郭、特にアモーダルな星形多角形として表現し、そのような輪郭を予測するための単純なモデルStarPolyを考案することを提案する。
大規模なWaymo Open Dataset実験により、SDEは、IoUと比較して、エゴエージェントの安全性に対する検出品質の影響をよりよく反映し、StarPolyの推定した輪郭は、最近の3Dオブジェクト検出器よりもエゴセントリックな検出品質を一貫して改善していることがわかった。
関連論文リスト
- Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - LS-VOS: Identifying Outliers in 3D Object Detections Using Latent Space
Virtual Outlier Synthesis [10.920640666237833]
LiDARベースの3Dオブジェクト検出器は、自動運転アプリケーションにおいて前例のないスピードと精度を達成した。
それらはしばしば、信頼度の高い予測や、実際のオブジェクトが存在しないリターン検出に偏っている。
LS-VOSは,3次元物体検出における外れ値の同定を行うフレームワークである。
論文 参考訳(メタデータ) (2023-10-02T07:44:26Z) - SSC3OD: Sparsely Supervised Collaborative 3D Object Detection from LiDAR
Point Clouds [16.612824810651897]
疎密な協調3Dオブジェクト検出フレームワークSSC3ODを提案する。
各エージェントは、シーン内の1つのオブジェクトをランダムにラベルするだけです。
疎調整された3Dオブジェクト検出器の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-07-03T02:42:14Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM [0.0]
3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
論文 参考訳(メタデータ) (2022-10-28T15:23:50Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - PolarFormer: Multi-camera 3D Object Detection with Polar Transformers [93.49713023975727]
自律運転における3次元物体検出は、3次元の世界に存在する「何」と「どこに」の物体を推論することを目的としている。
既存の手法はしばしば垂直軸を持つ標準カルテ座標系を採用する。
鳥眼ビュー(BEV)におけるより正確な3次元物体検出のための新しい極変換器(PolarFormer)を,マルチカメラ2D画像のみを入力として提案する。
論文 参考訳(メタデータ) (2022-06-30T16:32:48Z) - Shape-Aware Monocular 3D Object Detection [15.693199934120077]
単分子3次元物体検出モデルを提案する。
この検出は、対象物を取り巻く無関係な領域からの干渉をほとんど避ける。
単分子3次元物体検出モデルに対して,新しい評価基準,すなわち平均深度類似度(ADS)を提案する。
論文 参考訳(メタデータ) (2022-04-19T07:43:56Z) - 3D Object Detection for Autonomous Driving: A Survey [14.772968858398043]
3次元物体検出は、そのような知覚システムの中核となる基礎となる。
既存の努力にもかかわらず、ポイントクラウド上の3Dオブジェクト検出はまだ初期段階にある。
近年, プロスとコンスを用いた最先端検出法が提案されている。
論文 参考訳(メタデータ) (2021-06-21T03:17:20Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。