論文の概要: Querying Autonomous Vehicle Point Clouds: Enhanced by 3D Object Counting with CounterNet
- arxiv url: http://arxiv.org/abs/2507.19209v2
- Date: Fri, 01 Aug 2025 12:27:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 12:04:25.3859
- Title: Querying Autonomous Vehicle Point Clouds: Enhanced by 3D Object Counting with CounterNet
- Title(参考訳): 自律走行車点雲の問合せ:CounterNetによる3Dオブジェクトカウントの強化
- Authors: Xiaoyu Zhang, Zhifeng Bao, Hai Dong, Ziwei Wang, Jiajun Liu,
- Abstract要約: 我々は,RETRIEVAL, COUNT, AGGREGATIONの3つのコアクエリタイプを定義することで,ポイントクラウドクエリを形式化する。
CounterNetは、大規模クラウドデータの正確なオブジェクトカウントのために設計された、ヒートマップベースのネットワークである。
- 参考スコア(独自算出の注目度): 21.55830632188697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles generate massive volumes of point cloud data, yet only a subset is relevant for specific tasks such as collision detection, traffic analysis, or congestion monitoring. Effectively querying this data is essential to enable targeted analytics. In this work, we formalize point cloud querying by defining three core query types: RETRIEVAL, COUNT, and AGGREGATION, each aligned with distinct analytical scenarios. All these queries rely heavily on accurate object counts to produce meaningful results, making precise object counting a critical component of query execution. Prior work has focused on indexing techniques for 2D video data, assuming detection models provide accurate counting information. However, when applied to 3D point cloud data, state-of-the-art detection models often fail to generate reliable object counts, leading to substantial errors in query results. To address this limitation, we propose CounterNet, a heatmap-based network designed for accurate object counting in large-scale point cloud data. Rather than focusing on accurate object localization, CounterNet detects object presence by finding object centers to improve counting accuracy. We further enhance its performance with a feature map partitioning strategy using overlapping regions, enabling better handling of both small and large objects in complex traffic scenes. To adapt to varying frame characteristics, we introduce a per-frame dynamic model selection strategy that selects the most effective configuration for each input. Evaluations on three real-world autonomous vehicle datasets show that CounterNet improves counting accuracy by 5% to 20% across object categories, resulting in more reliable query outcomes across all supported query types.
- Abstract(参考訳): 自動運転車は大量のポイントクラウドデータを生成するが、衝突検出、交通分析、混雑監視といった特定のタスクに関係しているサブセットはごくわずかである。
このデータを効果的にクエリすることは、ターゲット分析を可能にするために不可欠である。
本研究では,RETRIEVAL, COUNT, AGGREGATIONの3つのコアクエリタイプを定義することで,ポイントクラウドクエリを形式化する。
これらのクエリはすべて、意味のある結果を得るために正確なオブジェクト数に大きく依存しているため、クエリ実行の重要なコンポーネントである正確なオブジェクト数をカウントします。
これまでは、検出モデルが正確なカウント情報を提供すると仮定して、2Dビデオデータのインデックス化技術に重点を置いてきた。
しかし、3Dポイントクラウドデータに適用すると、最先端検出モデルは信頼できるオブジェクト数の生成に失敗することが多く、クエリ結果にかなりのエラーが発生する。
この制限に対処するために,大規模クラウドデータにおける正確なオブジェクトカウント用に設計されたヒートマップベースのネットワークであるCounterNetを提案する。
CounterNetは、正確なオブジェクトローカライゼーションではなく、オブジェクトセンターを見つけ、カウント精度を向上させることによって、オブジェクトの存在を検出する。
さらに,重なり合う領域を用いた機能マップ分割戦略により,複雑な交通シーンにおける小型・大規模オブジェクトの扱い性の向上を実現した。
異なるフレーム特性に対応するために,各入力に対して最も効果的な構成を選択するフレーム単位の動的モデル選択戦略を導入する。
現実世界の3つの自動運転車データセットの評価によると、CounterNetはオブジェクトカテゴリ間でのカウント精度を5%から20%改善し、サポートされているすべてのクエリタイプに対してより信頼性の高いクエリ結果をもたらす。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - SEED: A Simple and Effective 3D DETR in Point Clouds [72.74016394325675]
ポイントクラウドの分散度が高く,不均一な分布のため,主な課題は困難である,と我々は主張する。
点雲から3次元物体を検出するための簡便で効果的な3次元DETR法(SEED)を提案する。
論文 参考訳(メタデータ) (2024-07-15T14:21:07Z) - DQ-DETR: DETR with Dynamic Query for Tiny Object Detection [29.559819542066236]
DQ-DETRは3つの異なるコンポーネントから構成される。
DQ-DETRは、カテゴリカウントモジュールからの予測と密度マップを使用して、オブジェクトクエリの数を動的に調整する。
我々のモデルは、AI-TOD-V2データセット上で最先端のmAPを30.2%達成し、従来のCNNベースおよびDETRライクな手法より優れている。
論文 参考訳(メタデータ) (2024-04-04T15:10:24Z) - PoIFusion: Multi-Modal 3D Object Detection via Fusion at Points of Interest [65.48057241587398]
PoIFusionは、関心点(PoIs)におけるRGBイメージとLiDARポイントクラウドに関する情報を融合するフレームワークである。
提案手法は,各モダリティの視点を維持し,計算にやさしいプロジェクションと計算によってマルチモーダル特徴を得る。
我々はnuScenesとArgoverse2データセットについて広範囲に実験を行い、我々のアプローチを評価した。
論文 参考訳(メタデータ) (2024-03-14T09:28:12Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Structure Aware and Class Balanced 3D Object Detection on nuScenes
Dataset [0.0]
NuTonomyのnuScenesデータセットは、KITTIのような一般的なデータセットを大きく拡張している。
このモデルの局所化精度は、ダウンスケールされた特徴写像における空間情報の損失に影響される。
本稿では,3次元点雲の構造情報をフル活用した補助ネットワークを設計することで,CBGSモデルの性能を向上させることを提案する。
論文 参考訳(メタデータ) (2022-05-25T06:18:49Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。