論文の概要: Multi-Frame to Single-Frame: Knowledge Distillation for 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2009.11859v1
- Date: Thu, 24 Sep 2020 17:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:21:46.726171
- Title: Multi-Frame to Single-Frame: Knowledge Distillation for 3D Object
Detection
- Title(参考訳): マルチフレームからシングルフレーム:3次元物体検出のための知識蒸留
- Authors: Yue Wang and Alireza Fathi and Jiajun Wu and Thomas Funkhouser and
Justin Solomon
- Abstract要約: 我々は、知識蒸留を用いて、訓練時に高品質な入力で訓練されたモデルと、推論時に低品質な入力で試験されたモデルとのギャップを埋める。
まず、トレーニング時にのみ利用可能な余分な情報を用いて複数のフレームから生成された高密度点雲上で物体検出モデルを訓練する。
そして、両方のモデルの特徴に対して一貫性のある規則化を施し、スパース単一フレームの点群で同じモデルを訓練する。
- 参考スコア(独自算出の注目度): 36.238956089801825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common dilemma in 3D object detection for autonomous driving is that
high-quality, dense point clouds are only available during training, but not
testing. We use knowledge distillation to bridge the gap between a model
trained on high-quality inputs at training time and another tested on
low-quality inputs at inference time. In particular, we design a two-stage
training pipeline for point cloud object detection. First, we train an object
detection model on dense point clouds, which are generated from multiple frames
using extra information only available at training time. Then, we train the
model's identical counterpart on sparse single-frame point clouds with
consistency regularization on features from both models. We show that this
procedure improves performance on low-quality data during testing, without
additional overhead.
- Abstract(参考訳): 自動運転のための3dオブジェクト検出の一般的なジレンマは、高品質で高密度な点雲はトレーニング中にのみ利用できるが、テストはできないことである。
学習時間における高品質入力を訓練したモデルと,推定時間に低品質入力をテストしたモデルとのギャップを埋めるために,知識蒸留を用いる。
特に、ポイントクラウドオブジェクト検出のための2段階のトレーニングパイプラインを設計します。
まず、トレーニング時にのみ利用可能な追加情報を用いて、複数のフレームから生成される集中点雲上の物体検出モデルを訓練する。
そして、両方のモデルの特徴に対して一貫性のある規則化を施し、スパース単一フレームの点群で同じモデルを訓練する。
本手法は,テスト中の低品質データの性能を,追加のオーバーヘッドを伴わずに向上させることを示す。
関連論文リスト
- Cross-Modal Self-Supervised Learning with Effective Contrastive Units for LiDAR Point Clouds [34.99995524090838]
LiDARポイントクラウドにおける3D知覚は、自動運転車が3D環境で適切に機能するためには不可欠である。
3次元知覚モデルの自己教師付き事前学習への関心が高まっている。
我々は、自動運転点雲に適したインスタンス認識および類似性バランスのコントラストユニットを提案する。
論文 参考訳(メタデータ) (2024-09-10T19:11:45Z) - Adapt PointFormer: 3D Point Cloud Analysis via Adapting 2D Visual Transformers [38.08724410736292]
本稿では,3次元ポイントクラウド解析の課題を達成するために,2次元事前知識を持つ事前学習モデルの活用を試みる。
本稿では,適応ポイントフォーマー (APF) を提案する。
論文 参考訳(メタデータ) (2024-07-18T06:32:45Z) - PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - 3D Point Cloud Pre-training with Knowledge Distillation from 2D Images [128.40422211090078]
本稿では,2次元表現学習モデルから直接知識を取得するために,3次元ポイントクラウド事前学習モデルの知識蒸留手法を提案する。
具体的には、3Dポイントクラウドから概念特徴を抽出し、2D画像からの意味情報と比較するクロスアテンション機構を提案する。
このスキームでは,2次元教師モデルに含まれるリッチな情報から,クラウド事前学習モデルを直接学習する。
論文 参考訳(メタデータ) (2022-12-17T23:21:04Z) - MATE: Masked Autoencoders are Online 3D Test-Time Learners [63.3907730920114]
MATEは3Dデータ用に設計された最初のTTT(Test-Time-Training)手法である。
テストデータで発生する分散シフトに対して、ポイントクラウド分類のためにトレーニングされたディープネットワークを堅牢にする。
論文 参考訳(メタデータ) (2022-11-21T13:19:08Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - Boosting Single-Frame 3D Object Detection by Simulating Multi-Frame
Point Clouds [47.488158093929904]
我々は,マルチフレーム点雲上で訓練された検出器に追従して,特徴と応答をシミュレートするために検出器を訓練する新しい手法を提案する。
このアプローチでは,単一フレーム検出装置のトレーニング時にのみマルチフレームポイントクラウドが必要であり,一度トレーニングすれば,単一フレームポイントクラウドのみをインプットとして検出することができる。
論文 参考訳(メタデータ) (2022-07-03T12:59:50Z) - Self-Supervised Pretraining of 3D Features on any Point-Cloud [40.26575888582241]
3D登録なしで任意の3Dデータを扱うことができる簡単な自己監督関連方法を紹介します。
オブジェクト検出、セマンティックセグメンテーション、オブジェクト分類の9つのベンチマークでモデルを評価し、最新の結果を達成し、教師付きプリトレーニングを上回ります。
論文 参考訳(メタデータ) (2021-01-07T18:55:21Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。