論文の概要: Open-CRB: Towards Open World Active Learning for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2310.10391v2
- Date: Mon, 23 Sep 2024 04:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 10:01:09.749544
- Title: Open-CRB: Towards Open World Active Learning for 3D Object Detection
- Title(参考訳): Open-CRB:3Dオブジェクト検出のためのオープンワールドアクティブラーニングを目指す
- Authors: Zhuoxiao Chen, Yadan Luo, Zixin Wang, Zijian Wang, Xin Yu, Zi Huang,
- Abstract要約: LiDARによる3次元物体検出は,最近,能動学習(AL)によって著しく進歩した。
ストリーミングポイントクラウドが未知または新しいオブジェクトを含む実世界のデプロイメントでは、そのようなオブジェクトをキャプチャする現在のALメソッドが探索されていない。
本稿では,3次元物体検出のためのオープンワールドアクティブラーニング(OWAL-3D)という,より実践的で困難な研究課題について検討する。
- 参考スコア(独自算出の注目度): 40.80953254074535
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: LiDAR-based 3D object detection has recently seen significant advancements through active learning (AL), attaining satisfactory performance by training on a small fraction of strategically selected point clouds. However, in real-world deployments where streaming point clouds may include unknown or novel objects, the ability of current AL methods to capture such objects remains unexplored. This paper investigates a more practical and challenging research task: Open World Active Learning for 3D Object Detection (OWAL-3D), aimed at acquiring informative point clouds with new concepts. To tackle this challenge, we propose a simple yet effective strategy called Open Label Conciseness (OLC), which mines novel 3D objects with minimal annotation costs. Our empirical results show that OLC successfully adapts the 3D detection model to the open world scenario with just a single round of selection. Any generic AL policy can then be integrated with the proposed OLC to efficiently address the OWAL-3D problem. Based on this, we introduce the Open-CRB framework, which seamlessly integrates OLC with our preliminary AL method, CRB, designed specifically for 3D object detection. We develop a comprehensive codebase for easy reproducing and future research, supporting 15 baseline methods (\textit{i.e.}, active learning, out-of-distribution detection and open world detection), 2 types of modern 3D detectors (\textit{i.e.}, one-stage SECOND and two-stage PV-RCNN) and 3 benchmark 3D datasets (\textit{i.e.}, KITTI, nuScenes and Waymo). Extensive experiments evidence that the proposed Open-CRB demonstrates superiority and flexibility in recognizing both novel and known classes with very limited labeling costs, compared to state-of-the-art baselines. Source code is available at \url{https://github.com/Luoyadan/CRB-active-3Ddet/tree/Open-CRB}.
- Abstract(参考訳): LiDARベースの3Dオブジェクト検出は、最近、アクティブラーニング(AL)を通じて大きな進歩を遂げ、少数の戦略的選択されたポイントクラウドでトレーニングすることで、良好なパフォーマンスを得ることができた。
しかし、ストリーミングポイントクラウドが未知または新しいオブジェクトを含む実世界のデプロイメントでは、そのようなオブジェクトをキャプチャする現在のALメソッドがまだ探索されていない。
本稿では,3次元物体検出のためのオープンワールドアクティブラーニング (OWAL-3D) という,より実践的で困難な研究課題について考察する。
この課題に対処するために、最小のアノテーションコストで新しい3Dオブジェクトをマイニングする、Open Label Conciseness (OLC) と呼ばれるシンプルで効果的な戦略を提案する。
実験の結果,OLCはオープンワールドのシナリオにたった1ラウンドの選択で3次元検出モデルを適応させることに成功した。
任意の汎用ALポリシーは、OWAL-3D問題に効率的に対処するために提案されたOLCと統合することができる。
そこで我々は,OLCを予備AL法であるCRBとシームレスに統合するOpen-CRBフレームワークを提案する。
本研究では,15のベースライン手法(アクティブラーニング,アウト・オブ・ディストリビューション検出,オープンワールド検出),2種類の現代の3D検出器(\textit{i.e.},ワンステージSECONDと2ステージPV-RCNN),3つのベンチマーク3Dデータセット(\textit{i.e.},KITTI,nuScenes,Waymo)をサポートする総合的なコードベースを構築した。
大規模な実験により、提案されたOpen-CRBは、最先端のベースラインと比較して、新しいクラスと既知のクラスの両方を非常に限定的なラベリングコストで認識する上で、優位性と柔軟性を示すことが証明された。
ソースコードは \url{https://github.com/Luoyadan/CRB-active-3Ddet/tree/Open-CRB} で公開されている。
関連論文リスト
- Training an Open-Vocabulary Monocular 3D Object Detection Model without 3D Data [57.53523870705433]
我々はOVM3D-Detと呼ばれる新しいオープン語彙単分子オブジェクト検出フレームワークを提案する。
OVM3D-Detは、入力または3Dバウンディングボックスを生成するために高精度のLiDARや3Dセンサーデータを必要としない。
オープンボキャブラリ2Dモデルと擬似LiDARを使用して、RGB画像に3Dオブジェクトを自動的にラベル付けし、オープンボキャブラリ単分子3D検出器の学習を促進する。
論文 参考訳(メタデータ) (2024-11-23T21:37:21Z) - Find n' Propagate: Open-Vocabulary 3D Object Detection in Urban Environments [67.83787474506073]
我々は,現在のLiDARに基づく3Dオブジェクト検出システムの限界に対処する。
本稿では,3次元OVタスクに対する汎用textscFind n' Propagate アプローチを提案する。
我々は、新しいオブジェクトクラスに対する平均精度(AP)を最大3.97倍に向上させる。
論文 参考訳(メタデータ) (2024-03-20T12:51:30Z) - Open-Pose 3D Zero-Shot Learning: Benchmark and Challenges [23.663199578392447]
オープンポジション3Dゼロショット分類という,より現実的で困難なシナリオを提案する。
まず,3次元ゼロショット分類に関する現在の研究について再考する。
オープンな設定に特化して設計されたベンチマークデータセットを2つ提案する。
論文 参考訳(メタデータ) (2023-12-12T07:52:33Z) - Exploring Active 3D Object Detection from a Generalization Perspective [58.597942380989245]
不確実性に基づくアクティブな学習ポリシーは、ポイントクラウドの情報性とボックスレベルのアノテーションコストの間のトレードオフのバランスを取れません。
冗長な3次元境界ボックスラベルの点群を階層的にフィルタリングするtextscCrbを提案する。
実験により,提案手法が既存のアクティブラーニング戦略より優れていることが示された。
論文 参考訳(メタデータ) (2023-01-23T02:43:03Z) - Towards Open Set 3D Learning: A Benchmark on Object Point Clouds [17.145309633743747]
本論文は,オープンセット3次元学習に関する第1報である。
カテゴリのセマンティックシフトの観点から,難易度を増すような新しいテストベッドを導入する。
本稿では,最新のアプローチが3Dデータに有効であるかどうか,その理解のために,アウト・オブ・ディストリビューションとオープン・セット2D文献について検討する。
論文 参考訳(メタデータ) (2022-07-23T17:00:45Z) - Exploring Diversity-based Active Learning for 3D Object Detection in Autonomous Driving [45.405303803618]
多様性に基づくアクティブラーニング(AL)を,アノテーションの負担を軽減するための潜在的解決策として検討する。
選択したサンプルの空間的・時間的多様性を強制する新しい取得関数を提案する。
提案手法がnuScenesデータセットに与える影響を実証し,既存のAL戦略を著しく上回ることを示す。
論文 参考訳(メタデータ) (2022-05-16T14:21:30Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - Weakly Supervised 3D Object Detection from Point Clouds [27.70180601788613]
3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
論文 参考訳(メタデータ) (2020-07-28T03:30:11Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。