論文の概要: Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View
- arxiv url: http://arxiv.org/abs/2104.11021v1
- Date: Thu, 22 Apr 2021 12:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:53:17.092220
- Title: Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View
- Title(参考訳): LiDAR Bird's Eye Viewにおけるシミュレーション・トゥ・リアル領域シフト低減のためのサイクル・セマンティック整合性ドメイン適応
- Authors: Alejandro Barrera, Jorge Beltr\'an, Carlos Guindel, Jose Antonio
Iglesias, Fernando Garc\'ia
- Abstract要約: ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
- 参考スコア(独自算出の注目度): 110.83289076967895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of object detection methods based on LiDAR information is
heavily impacted by the availability of training data, usually limited to
certain laser devices. As a result, the use of synthetic data is becoming
popular when training neural network models, as both sensor specifications and
driving scenarios can be generated ad-hoc. However, bridging the gap between
virtual and real environments is still an open challenge, as current simulators
cannot completely mimic real LiDAR operation. To tackle this issue, domain
adaptation strategies are usually applied, obtaining remarkable results on
vehicle detection when applied to range view (RV) and bird's eye view (BEV)
projections while failing for smaller road agents. In this paper, we present a
BEV domain adaptation method based on CycleGAN that uses prior semantic
classification in order to preserve the information of small objects of
interest during the domain adaptation process. The quality of the generated
BEVs has been evaluated using a state-of-the-art 3D object detection framework
at KITTI 3D Object Detection Benchmark. The obtained results show the
advantages of the proposed method over the existing alternatives.
- Abstract(参考訳): LiDAR情報に基づく物体検出手法の性能は、通常特定のレーザー装置に限られるトレーニングデータの可用性に大きく影響を受ける。
結果として、センサー仕様と駆動シナリオの両方をアドホックに生成できるため、ニューラルネットワークモデルをトレーニングするときに合成データの使用が普及している。
しかし、現在のシミュレータは実際のLiDAR操作を完全に模倣できないため、仮想環境と実環境のギャップを埋めることは依然としてオープンな課題である。
この問題に対処するために、通常、ドメイン適応戦略を適用し、より小さな道路エージェントに失敗しながら、レンジビュー(RV)およびバードアイビュー(BEV)プロジェクションに適用した場合、車両検出に顕著な結果が得られる。
本稿では,ドメイン適応プロセス中に関心のある小物体の情報を保存するために,事前意味分類を用いたサイクガンに基づくbevドメイン適応手法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
その結果,提案手法は既存手法よりも優れていることがわかった。
関連論文リスト
- CTS: Sim-to-Real Unsupervised Domain Adaptation on 3D Detection [16.96201890965781]
本稿では,ラベル付きシミュレーションからラベル付き現実領域へモデルを転送するための新しいフレームワークを提案する。
実験結果から,提案手法は3次元物体検出モデルの実領域適応能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-06-26T07:31:16Z) - CMDA: Cross-Modal and Domain Adversarial Adaptation for LiDAR-Based 3D
Object Detection [14.063365469339812]
LiDARベースの3Dオブジェクト検出法は、ソース(またはトレーニング)データ配布の外部のターゲットドメインにうまく一般化しないことが多い。
画像のモダリティから視覚的セマンティックキューを活用する,CMDA (unsupervised domain adaptation) と呼ばれる新しい手法を提案する。
また、自己学習に基づく学習戦略を導入し、モデルが逆向きに訓練され、ドメイン不変の機能を生成する。
論文 参考訳(メタデータ) (2024-03-06T14:12:38Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - QE-BEV: Query Evolution for Bird's Eye View Object Detection in Varied Contexts [2.949710700293865]
3Dオブジェクト検出は、自律走行とロボット工学において重要な役割を担い、バードアイビュー(Bird's Eye View, BEV)の画像の正確な解釈を要求する。
動的クエリ進化戦略を利用して,K平均とTop-Kアテンション機構を利用するフレームワークを提案する。
本評価では,クエリに基づくBEVオブジェクト検出の領域に新たなベンチマークを設定することにより,検出精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2023-10-07T21:55:29Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - OCBEV: Object-Centric BEV Transformer for Multi-View 3D Object Detection [29.530177591608297]
マルチビュー3Dオブジェクト検出は、高い有効性と低コストのため、自動運転において人気を博している。
現在の最先端検出器のほとんどは、クエリベースのバードアイビュー(BEV)パラダイムに従っている。
本稿では,移動対象の時間的・空間的手がかりをより効率的に彫ることができるOCBEVを提案する。
論文 参考訳(メタデータ) (2023-06-02T17:59:48Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - One-Shot Domain Adaptive and Generalizable Semantic Segmentation with
Class-Aware Cross-Domain Transformers [96.51828911883456]
セマンティックセグメンテーションのための教師なしのsim-to-realドメイン適応(UDA)は、シミュレーションデータに基づいて訓練されたモデルの実世界のテスト性能を改善することを目的としている。
従来のUDAは、適応のためのトレーニング中に利用可能なラベルのない実世界のサンプルが豊富にあると仮定することが多い。
実世界のデータサンプルが1つしか利用できない,一発の教師なしシム・トゥ・リアル・ドメイン適応(OSUDA)と一般化問題について検討する。
論文 参考訳(メタデータ) (2022-12-14T15:54:15Z) - Object recognition in atmospheric turbulence scenes [2.657505380055164]
乱流環境におけるオブジェクトの型を検知・分類するための歪み特徴を学習する新しいフレームワークを提案する。
具体的には、変形可能な畳み込みを利用して空間変位を処理する。
提案手法は平均精度(mAP)が30%を超えるベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-25T20:21:25Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。