論文の概要: Towards Unsupervised Object Detection From LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2311.02007v1
- Date: Fri, 3 Nov 2023 16:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 13:31:02.721621
- Title: Towards Unsupervised Object Detection From LiDAR Point Clouds
- Title(参考訳): LiDAR点雲からの非教師対象検出に向けて
- Authors: Lunjun Zhang, Anqi Joyce Yang, Yuwen Xiong, Sergio Casas, Bin Yang,
Mengye Ren, Raquel Urtasun
- Abstract要約: OYSTER (Object Discovery via Spatio-Temporal Refinement) は、オブジェクトをゼロショットで検出できる。
距離対衝突に基づく新しい計画中心の知覚尺度を提案する。
- 参考スコア(独自算出の注目度): 46.57452180314863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of unsupervised object detection from 3D
point clouds in self-driving scenes. We present a simple yet effective method
that exploits (i) point clustering in near-range areas where the point clouds
are dense, (ii) temporal consistency to filter out noisy unsupervised
detections, (iii) translation equivariance of CNNs to extend the auto-labels to
long range, and (iv) self-supervision for improving on its own. Our approach,
OYSTER (Object Discovery via Spatio-Temporal Refinement), does not impose
constraints on data collection (such as repeated traversals of the same
location), is able to detect objects in a zero-shot manner without supervised
finetuning (even in sparse, distant regions), and continues to self-improve
given more rounds of iterative self-training. To better measure model
performance in self-driving scenarios, we propose a new planning-centric
perception metric based on distance-to-collision. We demonstrate that our
unsupervised object detector significantly outperforms unsupervised baselines
on PandaSet and Argoverse 2 Sensor dataset, showing promise that
self-supervision combined with object priors can enable object discovery in the
wild. For more information, visit the project website:
https://waabi.ai/research/oyster
- Abstract(参考訳): 本稿では,自動運転シーンにおける3次元点雲からの教師なし物体検出の問題について検討する。
我々は、単純かつ効果的な方法を提案する。
(i)点雲が密集した近距離領域における点クラスタリング
(ii)ノイズ非教師あり検出をフィルタリングする時間的一貫性。
(iii)自動ラベルを長距離に拡張するcnnの翻訳等価性、及び
(iv)自己改善のための自己監督。
我々のアプローチであるOYSTER(Object Discovery via Spatio-Temporal Refinement)は、データ収集に制約を課さず(同じ位置の繰り返しトラバーサルなど)、微調整を監督せずにゼロショットでオブジェクトを検出でき、反復的な自己学習のラウンドを多く与え続けています。
自律走行シナリオにおけるモデル性能をよりよく計測するために,距離から衝突までに基づく新しい計画中心の知覚指標を提案する。
我々は、PandaSetとArgoverse 2 Sensorデータセットの教師なしベースラインを著しく上回り、オブジェクト先行と自己監督が組み合わさって、野生でのオブジェクト発見を可能にすることを示す。
詳細はプロジェクトのwebサイト(https://waabi.ai/research/oyster.com)を参照してください。
関連論文リスト
- Vision-Language Guidance for LiDAR-based Unsupervised 3D Object Detection [16.09503890891102]
我々は,LiDAR点雲のみで動作する教師なし3次元検出手法を提案する。
我々は、クラスタリング、トラッキング、ボックステキスト、ラベルリファインメントなど、LiDARポイントクラウドの固有のCLI時間知識を活用している。
提案手法はオープンデータセット上での最先端の非教師なし3Dオブジェクト検出器よりも優れている。
論文 参考訳(メタデータ) (2024-08-07T14:14:53Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - MoDAR: Using Motion Forecasting for 3D Object Detection in Point Cloud
Sequences [38.7464958249103]
我々は,動き予測出力を仮想モードのタイプとして用いて,LiDAR点雲を増大させるMoDARを提案する。
生のセンサーポイントと仮想ポイントの融合した点雲は、任意のオフザシェルフポイントクラウドベースの3Dオブジェクト検出器に供給される。
論文 参考訳(メタデータ) (2023-06-05T19:28:19Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Unsupervised Object Detection with LiDAR Clues [70.73881791310495]
本稿では,LiDARの手がかりを用いた非教師対象検出のための最初の実用的手法を提案する。
提案手法では,まず3次元点雲に基づく候補オブジェクトセグメントを生成する。
そして、セグメントラベルを割り当て、セグメントラベルネットワークを訓練する反復的なセグメントラベル処理を行う。
ラベル付けプロセスは、長い尾とオープンエンドの分布の問題を軽減するために慎重に設計されている。
論文 参考訳(メタデータ) (2020-11-25T18:59:54Z) - SegVoxelNet: Exploring Semantic Context and Depth-aware Features for 3D
Vehicle Detection from Point Cloud [39.99118618229583]
上記の2つの問題に対処する統合モデルSegVoxelNetを提案する。
鳥の視線における自由電荷セマンティックセグメンテーションマスクを活用するために,セマンティックコンテクストエンコーダを提案する。
分布差を明示的にモデル化する新規な深度認識ヘッドを設計し、深度認識ヘッドの各部分を目標検出範囲に集中させる。
論文 参考訳(メタデータ) (2020-02-13T02:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。