論文の概要: Recovering and Simulating Pedestrians in the Wild
- arxiv url: http://arxiv.org/abs/2011.08106v1
- Date: Mon, 16 Nov 2020 17:16:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:59:14.121960
- Title: Recovering and Simulating Pedestrians in the Wild
- Title(参考訳): 野生の歩行者の回復とシミュレーション
- Authors: Ze Yang, Siva Manivasagam, Ming Liang, Bin Yang, Wei-Chiu Ma, Raquel
Urtasun
- Abstract要約: 本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
- 参考スコア(独自算出の注目度): 81.38135735146015
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sensor simulation is a key component for testing the performance of
self-driving vehicles and for data augmentation to better train perception
systems. Typical approaches rely on artists to create both 3D assets and their
animations to generate a new scenario. This, however, does not scale. In
contrast, we propose to recover the shape and motion of pedestrians from sensor
readings captured in the wild by a self-driving car driving around. Towards
this goal, we formulate the problem as energy minimization in a deep structured
model that exploits human shape priors, reprojection consistency with 2D poses
extracted from images, and a ray-caster that encourages the reconstructed mesh
to agree with the LiDAR readings. Importantly, we do not require any
ground-truth 3D scans or 3D pose annotations. We then incorporate the
reconstructed pedestrian assets bank in a realistic LiDAR simulation system by
performing motion retargeting, and show that the simulated LiDAR data can be
used to significantly reduce the amount of annotated real-world data required
for visual perception tasks.
- Abstract(参考訳): センサーシミュレーションは、自動運転車の性能テストと、知覚システムを改善するためのデータ拡張のための重要なコンポーネントである。
典型的なアプローチは、アーティストが新しいシナリオを生成するために3Dアセットとアニメーションを作成することに依存する。
しかし、これはスケールしない。
対照的に,自動車の走行によって野生で捕獲されたセンサから歩行者の形状や動きを復元することを提案する。
この目的に向けて, 人体形状の先行情報を利用する深層構造モデルにおけるエネルギー最小化, 画像から抽出した2Dポーズとの投影整合性, 再構成メッシュがLiDARの読み値に一致するように促すレイキャスターの課題を定式化する。
重要なのは、3Dスキャンや3Dポーズアノテーションは必要ありません。
次に、再構成された歩行者資産銀行をリアルなLiDARシミュレーションシステムに組み込み、シミュレーションされたLiDARデータを用いて、視覚的知覚タスクに必要な注釈付き現実世界データの量を大幅に削減できることを示す。
関連論文リスト
- Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - CADSim: Robust and Scalable in-the-wild 3D Reconstruction for
Controllable Sensor Simulation [44.83732884335725]
センサシミュレーションでは、車などの交通参加者を高品質な外観と明瞭な幾何学でモデル化する。
現在の再構築アプローチは、その広さとノイズのために、Wildのセンサーデータに苦労している。
本稿では,車体形状を自動再構成するために,CADモデルの小さなセットと微分レンダリングを併用したCADSimを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:56:59Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World [84.57894492587053]
物理に基づくシミュレーションと学習に基づくシミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンドのクローズループ評価について紹介する。
論文 参考訳(メタデータ) (2020-06-16T17:44:35Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。