論文の概要: See Eye to Eye: A Lidar-Agnostic 3D Detection Framework for Unsupervised
Multi-Target Domain Adaptation
- arxiv url: http://arxiv.org/abs/2111.09450v1
- Date: Wed, 17 Nov 2021 23:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 14:20:23.760146
- Title: See Eye to Eye: A Lidar-Agnostic 3D Detection Framework for Unsupervised
Multi-Target Domain Adaptation
- Title(参考訳): see eye to eye: 教師なしマルチターゲットドメイン適応のためのライダー非依存3d検出フレームワーク
- Authors: Darren Tsai and Julie Stephany Berrio and Mao Shan and Stewart Worrall
and Eduardo Nebot
- Abstract要約: 本稿では,ライダー間における最先端3D検出器の性能伝達のための,教師なしマルチターゲットドメイン適応フレームワークであるSEEを提案する。
提案手法は,検出ネットワークに渡す前に,基礎となる形状を補間し,異なるライダーからの物体の走査パターンを正規化する。
我々は、SEEが公開データセット上で有効であること、最先端の成果を達成できること、そして、我々のフレームワークの産業的応用を証明するために、新しい高解像度ライダーに定量的な結果を提供することを実証する。
- 参考スコア(独自算出の注目度): 6.671002960645259
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling discrepancies between different manufacturers and models of lidar
sensors result in inconsistent representations of objects. This leads to
performance degradation when 3D detectors trained for one lidar are tested on
other types of lidars. Remarkable progress in lidar manufacturing has brought
about advances in mechanical, solid-state, and recently, adjustable scan
pattern lidars. For the latter, existing works often require fine-tuning the
model each time scan patterns are adjusted, which is infeasible. We explicitly
deal with the sampling discrepancy by proposing a novel unsupervised
multi-target domain adaptation framework, SEE, for transferring the performance
of state-of-the-art 3D detectors across both fixed and flexible scan pattern
lidars without requiring fine-tuning of models by end-users. Our approach
interpolates the underlying geometry and normalizes the scan pattern of objects
from different lidars before passing them to the detection network. We
demonstrate the effectiveness of SEE on public datasets, achieving
state-of-the-art results, and additionally provide quantitative results on a
novel high-resolution lidar to prove the industry applications of our
framework. This dataset and our code will be made publicly available.
- Abstract(参考訳): 異なるメーカーとライダーセンサーのモデルとの相違をサンプリングすると、オブジェクトの不整合表現が生じる。
これにより、1つのライダーのために訓練された3D検出器が他のタイプのライダーでテストされると性能が低下する。
ライダー製造の著しい進歩は、機械的、固体的、そして近年では調整可能なスキャンパターンlidarの進歩をもたらした。
後者では、スキャンパターンが調整されるたびにモデルを微調整する必要があることが多い。
我々は,新しい非教師付きマルチターゲットドメイン適応フレームワークの提案により,ユーザによるモデルの微調整を必要とせず,固定およびフレキシブルなスキャンパターンlidarをまたいで最先端の3d検出器の性能を伝達することにより,サンプリングの不一致を明示的に処理する。
提案手法は,基盤となる形状を補間し,異なるライダーの物体の走査パターンを正規化し,検出ネットワークに渡す。
我々は、SEEが公開データセット上で有効であること、最先端の成果を達成できること、そして、我々のフレームワークの産業的応用を証明するために、新しい高解像度ライダーに定量的な結果を提供する。
このデータセットとコードは公開される予定だ。
関連論文リスト
- UniMODE: Unified Monocular 3D Object Detection [76.77182583753051]
我々は,鳥眼視(BEV)検出パラダイムに基づく検出器を構築した。
本稿では,この課題に起因する収束不安定性に対応するために,不均一なBEVグリッド設計を提案する。
統一検出器UniMODEが導出され、挑戦的なOmni3Dデータセットの先行技術を上回る。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - S$^3$-MonoDETR: Supervised Shape&Scale-perceptive Deformable Transformer
for Monocular 3D Object Detection [22.424834025925076]
モノクロ3Dオブジェクト検出のためのSupervised Shape&Scale-perceptive Deformable Attention (S$3$-DA)モジュール。
本稿では,モノクロ3次元物体検出のための"Supervised Shape&Scale-perceptive Deformable Attention" (S$3$-DA) モジュールを提案する。
論文 参考訳(メタデータ) (2023-09-02T12:36:38Z) - Spatial-Temporal Enhanced Transformer Towards Multi-Frame 3D Object
Detection [59.03596380773798]
我々は、DETRのようなパラダイムに基づいた、多フレーム3Dオブジェクト検出のための新しいエンドツーエンドフレームワークであるSTEMDを提案する。
具体的には、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
我々は,計算オーバーヘッドをわずかに加えるだけで,難解なシナリオに対処する手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty
Estimation [59.05097963821385]
本稿では,対象物の潜在的可算有界箱の多様性として,ラベルの不確実性問題を定式化する。
本稿では,条件付き変分オートエンコーダを応用した生成フレームワークであるGLENetを提案する。
GLENetが生成するラベルの不確実性はプラグアンドプレイモジュールであり、既存のディープ3D検出器に便利に統合することができる。
論文 参考訳(メタデータ) (2022-07-06T06:26:17Z) - Test-time Adaptation with Slot-Centric Models [63.981055778098444]
Slot-TTAは、半教師付きシーン分解モデルであり、シーンごとのテスト時間は、再構成やクロスビュー合成の目的に対する勾配降下を通じて適用される。
我々は、最先端の監視フィードフォワード検出器と代替テスト時間適応法に対して、配電性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2022-03-21T17:59:50Z) - The MVTec 3D-AD Dataset for Unsupervised 3D Anomaly Detection and
Localization [17.437967037670813]
教師なし異常検出と局所化のタスクのための,最初の包括的3Dデータセットを提案する。
これは、モデルが製造された製品の様々な種類の欠陥を検出する必要がある実世界の視覚検査シナリオにインスパイアされている。
論文 参考訳(メタデータ) (2021-12-16T17:35:51Z) - MonoPair: Monocular 3D Object Detection Using Pairwise Spatial
Relationships [11.149904308044356]
そこで本研究では,一対のサンプルの関係を考慮し,モノラルな3次元物体検出を改良する手法を提案する。
具体的には,近接する物体対の物体位置と3次元距離の不確実性を考慮した予測を行う。
実験により,提案手法は,最先端の競合他社よりも広いマージンで性能を向上し,KITTI 3D検出ベンチマークで最高の性能が得られることが示された。
論文 参考訳(メタデータ) (2020-03-01T15:37:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。