論文の概要: OpenBox: Annotate Any Bounding Boxes in 3D
- arxiv url: http://arxiv.org/abs/2512.01352v1
- Date: Mon, 01 Dec 2025 07:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.73178
- Title: OpenBox: Annotate Any Bounding Boxes in 3D
- Title(参考訳): OpenBox:3Dでバウンディングボックスに注釈を付ける
- Authors: In-Jae Lee, Mungyeom Kim, Kwonyoung Ryu, Pierre Musacchio, Jaesik Park,
- Abstract要約: 3次元オブジェクト検出のための2段階自動アノテーションパイプラインであるOpenBoxを提案する。
OpenBoxはビジョンファウンデーションモデルによって処理された2Dイメージからのインスタンスレベルのキューと、対応する3Dポイントクラウドを関連付ける。
インスタンスを剛性と動作状態で分類し、クラス固有のサイズ統計を持つ適応的バウンディングボックスを生成する。
- 参考スコア(独自算出の注目度): 26.95078474297576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised and open-vocabulary 3D object detection has recently gained attention, particularly in autonomous driving, where reducing annotation costs and recognizing unseen objects are critical for both safety and scalability. However, most existing approaches uniformly annotate 3D bounding boxes, ignore objects' physical states, and require multiple self-training iterations for annotation refinement, resulting in suboptimal quality and substantial computational overhead. To address these challenges, we propose OpenBox, a two-stage automatic annotation pipeline that leverages a 2D vision foundation model. In the first stage, OpenBox associates instance-level cues from 2D images processed by a vision foundation model with the corresponding 3D point clouds via cross-modal instance alignment. In the second stage, it categorizes instances by rigidity and motion state, then generates adaptive bounding boxes with class-specific size statistics. As a result, OpenBox produces high-quality 3D bounding box annotations without requiring self-training. Experiments on the Waymo Open Dataset, the Lyft Level 5 Perception dataset, and the nuScenes dataset demonstrate improved accuracy and efficiency over baselines.
- Abstract(参考訳): 教師なしでオープンな3Dオブジェクト検出は、特に自律運転において、アノテーションコストを削減し、見えないオブジェクトを認識することが安全性とスケーラビリティの両方に不可欠であるとして、最近注目を集めている。
しかし、既存のほとんどのアプローチは、3Dバウンディングボックスを均一に注釈付けし、オブジェクトの物理的状態を無視し、アノテーションの洗練のために複数の自己学習反復を必要とする。
これらの課題に対処するため,我々は,2次元視覚基盤モデルを活用した2段階の自動アノテーションパイプラインであるOpenBoxを提案する。
第一段階では、OpenBoxはビジョンファウンデーションモデルによって処理された2Dイメージからのインスタンスレベルのキューを、クロスモーダルなインスタンスアライメントを通じて対応する3Dポイントクラウドに関連付ける。
第2段階では、インスタンスを剛性と動作状態で分類し、クラス固有のサイズ統計を持つ適応的バウンディングボックスを生成する。
その結果、OpenBoxは自己学習を必要とせずに高品質な3Dバウンディングボックスアノテーションを生成する。
Waymo Open Dataset、Lyft Level 5 Perceptionデータセット、nuScenesデータセットの実験では、ベースラインよりも精度と効率が改善された。
関連論文リスト
- Sparse Multiview Open-Vocabulary 3D Detection [27.57172918603858]
3Dオブジェクト検出は伝統的に、固定されたカテゴリのセットを検出するトレーニングによって解決されてきた。
本研究では,オープンボキャブラリによる3次元物体検出の課題について検討する。
我々のアプローチは、計算コストのかかる3D特徴フュージョンを使わずに、事前訓練されたオフザシェルフ2Dファンデーションモデルに頼っている。
論文 参考訳(メタデータ) (2025-09-19T12:22:24Z) - Training an Open-Vocabulary Monocular 3D Object Detection Model without 3D Data [57.53523870705433]
我々はOVM3D-Detと呼ばれる新しいオープン語彙単分子オブジェクト検出フレームワークを提案する。
OVM3D-Detは、入力または3Dバウンディングボックスを生成するために高精度のLiDARや3Dセンサーデータを必要としない。
オープンボキャブラリ2Dモデルと擬似LiDARを使用して、RGB画像に3Dオブジェクトを自動的にラベル付けし、オープンボキャブラリ単分子3D検出器の学習を促進する。
論文 参考訳(メタデータ) (2024-11-23T21:37:21Z) - Segment, Lift and Fit: Automatic 3D Shape Labeling from 2D Prompts [50.181870446016376]
本稿では,2Dポイントやボックスプロンプトから3Dオブジェクトを自動的にラベル付けするアルゴリズムを提案する。
従来のアートとは異なり、自動ラベルはバウンディングボックスの代わりに3D形状を予測し、特定のデータセットのトレーニングを必要としない。
論文 参考訳(メタデータ) (2024-07-16T04:53:28Z) - Open3DIS: Open-Vocabulary 3D Instance Segmentation with 2D Mask Guidance [49.14140194332482]
Open3DISは3Dシーン内でのOpen-Vocabulary Instanceの問題に対処するために設計された新しいソリューションである。
3D環境内のオブジェクトは、さまざまな形状、スケール、色を示し、正確なインスタンスレベルの識別が困難なタスクとなる。
論文 参考訳(メタデータ) (2023-12-17T10:07:03Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Box2Mask: Weakly Supervised 3D Semantic Instance Segmentation Using
Bounding Boxes [38.60444957213202]
弱教師付き3Dセマンティックインスタンスセグメンテーションについて検討する。
キーとなるアイデアは、3Dバウンディングボックスラベルを活用することだ。
境界ボックスラベルのみを用いて高密度セグメンテーションモデルを訓練することが可能であることを示す。
論文 参考訳(メタデータ) (2022-06-02T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。