論文の概要: Weakly Supervised 3D Object Detection from Point Clouds
- arxiv url: http://arxiv.org/abs/2007.13970v1
- Date: Tue, 28 Jul 2020 03:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 02:30:37.849249
- Title: Weakly Supervised 3D Object Detection from Point Clouds
- Title(参考訳): 点雲からの3次元物体検出の微弱化
- Authors: Zengyi Qin, Jinglu Wang, Yan Lu
- Abstract要約: 3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
- 参考スコア(独自算出の注目度): 27.70180601788613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A crucial task in scene understanding is 3D object detection, which aims to
detect and localize the 3D bounding boxes of objects belonging to specific
classes. Existing 3D object detectors heavily rely on annotated 3D bounding
boxes during training, while these annotations could be expensive to obtain and
only accessible in limited scenarios. Weakly supervised learning is a promising
approach to reducing the annotation requirement, but existing weakly supervised
object detectors are mostly for 2D detection rather than 3D. In this work, we
propose VS3D, a framework for weakly supervised 3D object detection from point
clouds without using any ground truth 3D bounding box for training. First, we
introduce an unsupervised 3D proposal module that generates object proposals by
leveraging normalized point cloud densities. Second, we present a cross-modal
knowledge distillation strategy, where a convolutional neural network learns to
predict the final results from the 3D object proposals by querying a teacher
network pretrained on image datasets. Comprehensive experiments on the
challenging KITTI dataset demonstrate the superior performance of our VS3D in
diverse evaluation settings. The source code and pretrained models are publicly
available at
https://github.com/Zengyi-Qin/Weakly-Supervised-3D-Object-Detection.
- Abstract(参考訳): シーン理解における重要なタスクは、3Dオブジェクト検出であり、これは特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3dオブジェクト検出器は、トレーニング中にアノテーション付き3dバウンディングボックスに強く依存しているが、これらのアノテーションは、限られたシナリオでしかアクセスできないため、入手にコストがかかる可能性がある。
弱い教師付き学習はアノテーションの要求を減らすための有望なアプローチであるが、既存の弱い教師付きオブジェクト検出器は3dではなく2d検出のためのものである。
そこで本研究では,訓練に基底真理3dバウンディングボックスを用いずに,ポイントクラウドから弱い教師付き3dオブジェクト検出のためのフレームワークであるvs3dを提案する。
まず、正規化点雲密度を利用してオブジェクト提案を生成する教師なし3D提案モジュールを提案する。
次に,畳み込みニューラルネットワークが学習し,画像データセットに事前学習した教師ネットワークに問い合わせることで,3次元オブジェクト提案から最終的な結果を予測するクロスモーダル知識蒸留戦略を提案する。
挑戦的なKITTIデータセットに関する包括的な実験は、さまざまな評価設定において、VS3Dの優れたパフォーマンスを示している。
ソースコードと事前訓練されたモデルはhttps://github.com/Zengyi-Qin/Weakly-Supervised-3D-Object-Detectionで公開されている。
関連論文リスト
- Training an Open-Vocabulary Monocular 3D Object Detection Model without 3D Data [57.53523870705433]
我々はOVM3D-Detと呼ばれる新しいオープン語彙単分子オブジェクト検出フレームワークを提案する。
OVM3D-Detは、入力または3Dバウンディングボックスを生成するために高精度のLiDARや3Dセンサーデータを必要としない。
オープンボキャブラリ2Dモデルと擬似LiDARを使用して、RGB画像に3Dオブジェクトを自動的にラベル付けし、オープンボキャブラリ単分子3D検出器の学習を促進する。
論文 参考訳(メタデータ) (2024-11-23T21:37:21Z) - STONE: A Submodular Optimization Framework for Active 3D Object Detection [20.54906045954377]
正確な3Dオブジェクト検出器をトレーニングするための鍵となる要件は、大量のLiDARベースのポイントクラウドデータが利用できることである。
本稿では,3次元物体検出装置のトレーニングにおけるラベル付けコストを大幅に削減する,統合されたアクティブな3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-04T20:45:33Z) - General Geometry-aware Weakly Supervised 3D Object Detection [62.26729317523975]
RGB画像と関連する2Dボックスから3Dオブジェクト検出器を学習するための統合フレームワークを開発した。
KITTIとSUN-RGBDデータセットの実験により,本手法は驚くほど高品質な3次元境界ボックスを2次元アノテーションで生成することを示した。
論文 参考訳(メタデータ) (2024-07-18T17:52:08Z) - Attention-Based Depth Distillation with 3D-Aware Positional Encoding for
Monocular 3D Object Detection [10.84784828447741]
ADDは、3D対応の位置符号化を備えた注意に基づく深度知識蒸留フレームワークである。
教師の設計によると、私たちのフレームワークはシームレスで、ドメインギャップフリーで、実装が容易で、オブジェクト指向の地層深度と互換性があります。
我々は,3つの代表的な単分子検出器上でのフレームワークを実装し,予測計算コストの増大を伴わず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-11-30T06:39:25Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - CoCoNets: Continuous Contrastive 3D Scene Representations [21.906643302668716]
本稿では,RGBとRGB-Dの画像とビデオから非モーダルな3D特徴表現を自己監督的に学習する。
得られた3次元視覚特徴表現は,オブジェクトやシーンにまたがって効果的にスケールし,入力視点から逸脱した情報を想像し,時間とともにオブジェクトを追跡し,意味的に関連したオブジェクトを3dで調整し,3dオブジェクト検出を改善する。
論文 参考訳(メタデータ) (2021-04-08T15:50:47Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。