論文の概要: SSC3OD: Sparsely Supervised Collaborative 3D Object Detection from LiDAR
Point Clouds
- arxiv url: http://arxiv.org/abs/2307.00717v1
- Date: Mon, 3 Jul 2023 02:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 14:39:56.988599
- Title: SSC3OD: Sparsely Supervised Collaborative 3D Object Detection from LiDAR
Point Clouds
- Title(参考訳): ssc3od:lidar point cloudによる協調的3次元物体検出
- Authors: Yushan Han, Hui Zhang, Honglei Zhang and Yidong Li
- Abstract要約: 疎密な協調3Dオブジェクト検出フレームワークSSC3ODを提案する。
各エージェントは、シーン内の1つのオブジェクトをランダムにラベルするだけです。
疎調整された3Dオブジェクト検出器の性能を効果的に向上させることができる。
- 参考スコア(独自算出の注目度): 16.612824810651897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative 3D object detection, with its improved interaction advantage
among multiple agents, has been widely explored in autonomous driving. However,
existing collaborative 3D object detectors in a fully supervised paradigm
heavily rely on large-scale annotated 3D bounding boxes, which is
labor-intensive and time-consuming. To tackle this issue, we propose a sparsely
supervised collaborative 3D object detection framework SSC3OD, which only
requires each agent to randomly label one object in the scene. Specifically,
this model consists of two novel components, i.e., the pillar-based masked
autoencoder (Pillar-MAE) and the instance mining module. The Pillar-MAE module
aims to reason over high-level semantics in a self-supervised manner, and the
instance mining module generates high-quality pseudo labels for collaborative
detectors online. By introducing these simple yet effective mechanisms, the
proposed SSC3OD can alleviate the adverse impacts of incomplete annotations. We
generate sparse labels based on collaborative perception datasets to evaluate
our method. Extensive experiments on three large-scale datasets reveal that our
proposed SSC3OD can effectively improve the performance of sparsely supervised
collaborative 3D object detectors.
- Abstract(参考訳): 複数エージェント間の相互作用の優位性を向上した協調型3次元物体検出は、自律運転において広く研究されている。
しかし、既存のコラボレーティブな3Dオブジェクト検出器は、労働集約的で時間を要する大規模な注釈付き3Dバウンディングボックスに大きく依存している。
この問題に対処するため,我々は,各エージェントがランダムに1つのオブジェクトにラベルを付けるだけでよい,疎密な3dオブジェクト検出フレームワークssc3odを提案する。
具体的には、このモデルは2つの新しいコンポーネント、すなわち柱ベースのマスク付きオートエンコーダ(Pillar-MAE)とインスタンスマイニングモジュールで構成される。
Pillar-MAEモジュールは、自己管理的な方法でハイレベルなセマンティクスを推論することを目的としており、インスタンスマイニングモジュールは、オンラインで協調検知のための高品質な擬似ラベルを生成する。
これらの単純で効果的なメカニズムを導入することで、提案されたssc3odは不完全なアノテーションの悪影響を軽減することができる。
協調認識データセットに基づいてスパースラベルを生成し,提案手法の評価を行う。
3つの大規模データセットに関する広範囲な実験により,提案するssc3odは,比較的教師の少ない3次元物体検出器の性能を効果的に向上できることが判明した。
関連論文リスト
- Diff3DETR:Agent-based Diffusion Model for Semi-supervised 3D Object Detection [33.58208166717537]
3次元物体検出は3次元シーンの理解に不可欠である。
半教師付き手法の最近の発展は、教師による学習フレームワークを用いて、未ラベルの点群に対する擬似ラベルを生成することにより、この問題を緩和しようとしている。
半教師付き3次元物体検出のためのエージェントベース拡散モデル(Diff3DETR)を提案する。
論文 参考訳(メタデータ) (2024-08-01T05:04:22Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - AOP-Net: All-in-One Perception Network for Joint LiDAR-based 3D Object
Detection and Panoptic Segmentation [9.513467995188634]
AOP-NetはLiDARベースのマルチタスクフレームワークで、3Dオブジェクトの検出とパノプティクスのセグメンテーションを組み合わせたものである。
AOP-Netは、nuScenesベンチマークにおける3Dオブジェクト検出とパノプティクスセグメンテーションの両タスクについて、最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-02T05:31:53Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。