論文の概要: Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation
- arxiv url: http://arxiv.org/abs/2012.08055v2
- Date: Wed, 6 Jan 2021 09:04:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:25:29.513016
- Title: Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation
- Title(参考訳): 3次元部分ガイド型視覚データによる細粒度車両知覚
- Authors: Feixiang Lu, Zongdai Liu, Hui Miao, Peng Wang, Liangjun Zhang, Ruigang
Yang, Dinesh Manocha, Bin Zhou
- Abstract要約: 実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
- 参考スコア(独自算出の注目度): 77.60050239225086
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Holistically understanding an object and its 3D movable parts through visual
perception models is essential for enabling an autonomous agent to interact
with the world. For autonomous driving, the dynamics and states of vehicle
parts such as doors, the trunk, and the bonnet can provide meaningful semantic
information and interaction states, which are essential to ensuring the safety
of the self-driving vehicle. Existing visual perception models mainly focus on
coarse parsing such as object bounding box detection or pose estimation and
rarely tackle these situations. In this paper, we address this important
autonomous driving problem by solving three critical issues. First, to deal
with data scarcity, we propose an effective training data generation process by
fitting a 3D car model with dynamic parts to vehicles in real images before
reconstructing human-vehicle interaction (VHI) scenarios. Our approach is fully
automatic without any human interaction, which can generate a large number of
vehicles in uncommon states (VUS) for training deep neural networks (DNNs).
Second, to perform fine-grained vehicle perception, we present a multi-task
network for VUS parsing and a multi-stream network for VHI parsing. Third, to
quantitatively evaluate the effectiveness of our data augmentation approach, we
build the first VUS dataset in real traffic scenarios (e.g., getting on/out or
placing/removing luggage). Experimental results show that our approach advances
other baseline methods in 2D detection and instance segmentation by a big
margin (over 8%). In addition, our network yields large improvements in
discovering and understanding these uncommon cases. Moreover, we have released
the source code, the dataset, and the trained model on Github
(https://github.com/zongdai/EditingForDNN).
- Abstract(参考訳): 物体とその3D可動部品を視覚的知覚モデルで完全に理解することは、自律的なエージェントが世界と対話できるためには不可欠である。
自動運転では、ドア、トランク、ボンネットなどの車両部品のダイナミクスと状態は、自動運転車の安全性を確保する上で不可欠な意味的情報と相互作用状態を提供することができる。
既存の視覚知覚モデルは、主にオブジェクト境界ボックス検出やポーズ推定などの粗い解析にフォーカスしており、これらの状況に対処することは滅多にない。
本稿では,3つの課題を解決することで,この重要な自動運転問題に対処する。
まず,人間の車間相互作用(VHI)のシナリオを再構築する前に,車体に動的部品を付加した3次元自動車モデルを実画像に組み込むことにより,データ不足に対処する効果的なトレーニングデータ生成プロセスを提案する。
当社のアプローチは、人間のインタラクションなしに完全に自動化されており、ディープニューラルネットワーク(dnn)をトレーニングするために、珍しい状態(vus)の多数の車両を生成できる。
次に,VUS解析のためのマルチタスクネットワークと,VHI解析のためのマルチストリームネットワークを提案する。
第3に、データ拡張アプローチの有効性を定量的に評価するために、実際のトラフィックシナリオ(例えば、荷物のオン/アウトや配置/削除)で最初のvusデータセットを構築します。
実験の結果,提案手法は2次元検出とインスタンス分割の他のベースライン手法を大きなマージン(8%以上)で前進させることがわかった。
さらに,これらの事例の発見と理解において,ネットワークは大きな改善をもたらす。
さらに、ソースコード、データセット、トレーニングされたモデルをGithub(https://github.com/zongdai/EditingForDNN)でリリースしました。
関連論文リスト
- V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。