論文の概要: Weakly Supervised 3D Object Detection from Lidar Point Cloud
- arxiv url: http://arxiv.org/abs/2007.11901v1
- Date: Thu, 23 Jul 2020 10:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:39:12.734871
- Title: Weakly Supervised 3D Object Detection from Lidar Point Cloud
- Title(参考訳): ライダーポイント雲からの弱教師付き3次元物体検出
- Authors: Qinghao Meng, Wenguan Wang, Tianfei Zhou, Jianbing Shen, Luc Van Gool
and Dengxin Dai
- Abstract要約: 高品質な3Dオブジェクト検出器をトレーニングするために、ポイントクラウドデータに手動でラベルをつけるのはむずかしい。
本研究は、3次元物体検出のための弱教師付きアプローチを提案する。
提案手法は,500の弱い注釈付きシーンと534の正確なラベル付き車両インスタンスを用いて,現在のトップリード型全監視検出器の性能を85~95%向上させる。
- 参考スコア(独自算出の注目度): 182.67704224113862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is laborious to manually label point cloud data for training high-quality
3D object detectors. This work proposes a weakly supervised approach for 3D
object detection, only requiring a small set of weakly annotated scenes,
associated with a few precisely labeled object instances. This is achieved by a
two-stage architecture design. Stage-1 learns to generate cylindrical object
proposals under weak supervision, i.e., only the horizontal centers of objects
are click-annotated on bird's view scenes. Stage-2 learns to refine the
cylindrical proposals to get cuboids and confidence scores, using a few
well-labeled object instances. Using only 500 weakly annotated scenes and 534
precisely labeled vehicle instances, our method achieves 85-95% the performance
of current top-leading, fully supervised detectors (which require 3, 712
exhaustively and precisely annotated scenes with 15, 654 instances). More
importantly, with our elaborately designed network architecture, our trained
model can be applied as a 3D object annotator, allowing both automatic and
active working modes. The annotations generated by our model can be used to
train 3D object detectors with over 94% of their original performance (under
manually labeled data). Our experiments also show our model's potential in
boosting performance given more training data. Above designs make our approach
highly practical and introduce new opportunities for learning 3D object
detection with reduced annotation burden.
- Abstract(参考訳): 高品質な3Dオブジェクト検出器をトレーニングするために、ポイントクラウドデータに手動でラベルをつけるのはむずかしい。
この研究は、3dオブジェクト検出のための弱い教師付きアプローチを提案し、いくつかの正確にラベル付けされたオブジェクトインスタンスに関連付けられた、弱い注釈付きシーンの小さなセットのみを必要とする。
これは2段階のアーキテクチャ設計によって実現される。
Stage-1は、弱い監督下で円筒形のオブジェクト提案を生成することを学び、すなわち、鳥の視点でオブジェクトの水平中心だけがクリックアノテートされる。
Stage-2は、いくつかのよくラベルされたオブジェクトインスタンスを使用して、キュービドと信頼スコアを得るために、円筒形の提案を洗練することを学ぶ。
提案手法は,500の弱い注釈付きシーンと534の正確なラベル付き車両インスタンスを用いて,現在のトップリード型全監視検出器の性能を85~95%向上させる(総計で3,712点,正確に注釈付きシーンは15,654点)。
さらに重要なことは、ネットワークアーキテクチャを精巧に設計することで、トレーニングされたモデルは3Dオブジェクトアノテータとして適用することができ、自動およびアクティブな動作モードの両方を可能にします。
私たちのモデルで生成されたアノテーションは、元のパフォーマンスの94%(手動でラベル付けされたデータの下で)で3Dオブジェクト検出器をトレーニングするのに使用できます。
我々の実験はまた、より多くのトレーニングデータから、我々のモデルがパフォーマンスを高める可能性を示しています。
以上の設計により,アノテーションの負担を軽減した3次元物体検出の新たな機会がもたらされる。
関連論文リスト
- PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - DR-WLC: Dimensionality Reduction cognition for object detection and pose
estimation by Watching, Learning and Checking [30.58114448119465]
既存の物体検出法とポーズ推定法は、主に訓練に同次元のデータを用いる。
次元減少認知モデルであるDR-WLCは、物体検出と推定タスクを同時に行うことができる。
論文 参考訳(メタデータ) (2023-01-17T15:08:32Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Semi-supervised 3D Object Detection via Adaptive Pseudo-Labeling [18.209409027211404]
3次元物体検出はコンピュータビジョンにおいて重要な課題である。
既存のほとんどのメソッドでは、多くの高品質な3Dアノテーションが必要です。
本研究では,屋外3次元物体検出タスクのための擬似ラベルに基づく新しい半教師付きフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-15T02:58:43Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Self-Supervised Pretraining of 3D Features on any Point-Cloud [40.26575888582241]
3D登録なしで任意の3Dデータを扱うことができる簡単な自己監督関連方法を紹介します。
オブジェクト検出、セマンティックセグメンテーション、オブジェクト分類の9つのベンチマークでモデルを評価し、最新の結果を達成し、教師付きプリトレーニングを上回ります。
論文 参考訳(メタデータ) (2021-01-07T18:55:21Z) - Weakly Supervised 3D Object Detection from Point Clouds [27.70180601788613]
3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
論文 参考訳(メタデータ) (2020-07-28T03:30:11Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。