論文の概要: PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2007.08116v1
- Date: Thu, 16 Jul 2020 05:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:15:56.398373
- Title: PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving
- Title(参考訳): PerMO: 自動運転のための画像から一度により多くのものを認識する
- Authors: Feixiang Lu, Zongdai Liu, Xibin Song, Dingfu Zhou, Wei Li, Hui Miao,
Miao Liao, Liangjun Zhang, Bin Zhou, Ruigang Yang and Dinesh Manocha
- Abstract要約: 単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
- 参考スコア(独自算出の注目度): 76.35684439949094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to detect, segment, and reconstruct complete
textured 3D models of vehicles from a single image for autonomous driving. Our
approach combines the strengths of deep learning and the elegance of
traditional techniques from part-based deformable model representation to
produce high-quality 3D models in the presence of severe occlusions. We present
a new part-based deformable vehicle model that is used for instance
segmentation and automatically generate a dataset that contains dense
correspondences between 2D images and 3D models. We also present a novel
end-to-end deep neural network to predict dense 2D/3D mapping and highlight its
benefits. Based on the dense mapping, we are able to compute precise 6-DoF
poses and 3D reconstruction results at almost interactive rates on a commodity
GPU. We have integrated these algorithms with an autonomous driving system. In
practice, our method outperforms the state-of-the-art methods for all major
vehicle parsing tasks: 2D instance segmentation by 4.4 points (mAP), 6-DoF pose
estimation by 9.11 points, and 3D detection by 1.37. Moreover, we have released
all of the source code, dataset, and the trained model on Github.
- Abstract(参考訳): 自律運転のための1つの画像から車両の完全なテクスチャ3dモデルを検出し,セグメント化し,再構成する新しい手法を提案する。
提案手法は, 深層学習の強みと, 部分的変形可能なモデル表現からの従来の手法のエレガンスさを組み合わせて, 厳密なオクルージョンの存在下で高品質な3Dモデルを生成する。
本稿では,2次元画像と3次元モデルとの密接な対応関係を含むデータセットを自動的に生成する,新しい部分ベースの変形可能な車両モデルを提案する。
また,密度の高い2d/3dマッピングを予測し,その利点を強調する新しいエンド・ツー・エンド深層ニューラルネットワークを提案する。
密接なマッピングに基づいて,商品gpu上でほぼインタラクティブなレートで,正確な6dofポーズと3d再構成結果を計算できる。
我々はこれらのアルゴリズムを自動運転システムに統合した。
本手法は,4.4ポイント (mAP) の2次元インスタンス分割,9.11ポイントの6-DoFポーズ推定,1.37ポイントの3次元検出を行う。
さらに、githubですべてのソースコード、データセット、トレーニングされたモデルをリリースしました。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - AutoAlignV2: Deformable Feature Aggregation for Dynamic Multi-Modal 3D
Object Detection [17.526914782562528]
我々はAutoAlign上に構築された高速で強力なマルチモーダル3D検出フレームワークであるAutoAlignV2を提案する。
我々の最良のモデルは、nuScenesテストのリーダーボード上で72.4 NDSに達し、新しい最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-07-21T06:17:23Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - AutoShape: Real-Time Shape-Aware Monocular 3D Object Detection [15.244852122106634]
形状認識型2D/3D制約を3D検出フレームワークに組み込む手法を提案する。
具体的には、ディープニューラルネットワークを用いて、2次元画像領域の区別された2Dキーポイントを学習する。
2D/3Dキーポイントの基礎的真理を生成するために、自動的なモデル適合手法が提案されている。
論文 参考訳(メタデータ) (2021-08-25T08:50:06Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。