論文の概要: Real-Time 3D Object Detection with Inference-Aligned Learning
- arxiv url: http://arxiv.org/abs/2511.16140v1
- Date: Thu, 20 Nov 2025 08:27:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.529167
- Title: Real-Time 3D Object Detection with Inference-Aligned Learning
- Title(参考訳): 推論型学習によるリアルタイム3次元物体検出
- Authors: Chenyu Zhao, Xianwei Zheng, Zimin Xia, Linwei Yue, Nan Xue,
- Abstract要約: ポイントクラウドからのリアルタイム3Dオブジェクト検出は、拡張現実、ロボット工学、ナビゲーションなどのアプリケーションにおける動的なシーン理解に不可欠である。
本稿では,検出器の訓練方法と評価方法のギャップを埋めるために,空間優先・ランク対応の3Dオブジェクト検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.94871746774727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time 3D object detection from point clouds is essential for dynamic scene understanding in applications such as augmented reality, robotics and navigation. We introduce a novel Spatial-prioritized and Rank-aware 3D object detection (SR3D) framework for indoor point clouds, to bridge the gap between how detectors are trained and how they are evaluated. This gap stems from the lack of spatial reliability and ranking awareness during training, which conflicts with the ranking-based prediction selection used as inference. Such a training-inference gap hampers the model's ability to learn representations aligned with inference-time behavior. To address the limitation, SR3D consists of two components tailored to the spatial nature of point clouds during training: a novel spatial-prioritized optimal transport assignment that dynamically emphasizes well-located and spatially reliable samples, and a rank-aware adaptive self-distillation scheme that adaptively injects ranking perception via a self-distillation paradigm. Extensive experiments on ScanNet V2 and SUN RGB-D show that SR3D effectively bridges the training-inference gap and significantly outperforms prior methods in accuracy while maintaining real-time speed.
- Abstract(参考訳): ポイントクラウドからのリアルタイム3Dオブジェクト検出は、拡張現実、ロボット工学、ナビゲーションなどのアプリケーションにおける動的なシーン理解に不可欠である。
本研究では,室内点雲に対する空間優先・ランク対応3次元物体検出(SR3D)フレームワークを導入し,検出器の訓練方法と評価方法のギャップを埋める。
このギャップは、トレーニング中に空間的信頼性の欠如とランキング意識の欠如に起因している。
このようなトレーニングと推論のギャップは、推論時の振る舞いに沿った表現を学習するモデルの能力を妨げます。
この制限に対処するため、SR3Dは訓練中の点雲の空間的性質に合わせた2つのコンポーネントで構成されている。
ScanNet V2 と SUN RGB-D の大規模な実験により、SR3D はトレーニングと推論のギャップを効果的に橋渡しし、リアルタイムの速度を維持しながら、事前の手法の精度を大幅に向上させることを示した。
関連論文リスト
- Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with Pre-trained Vision-Language Models [59.13757801286343]
クラス増分学習(class-incremental learning)は、モデルが限られたデータで漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
本稿では,特徴空間の不整合のための冗長特徴除去器 (RFE) と,重要な雑音に対する空間ノイズ補償器 (SNC) の2つの新しいコンポーネントを備えたFILP-3Dフレームワークを紹介する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。