論文の概要: Car-Studio: Learning Car Radiance Fields from Single-View and Endless
In-the-wild Images
- arxiv url: http://arxiv.org/abs/2307.14009v1
- Date: Wed, 26 Jul 2023 07:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 13:07:43.898867
- Title: Car-Studio: Learning Car Radiance Fields from Single-View and Endless
In-the-wild Images
- Title(参考訳): car-studio:シングルビューとエンドレスインザワイルド画像から車の放射場を学ぶ
- Authors: Tianyu Liu, Hao Zhao, Yang Yu, Guyue Zhou, Ming Liu
- Abstract要約: 本稿では,制約のない画像の学習と,処理された画像からのデータセット構築のためのパイプラインを提案する。
シミュレータの要件を満たすため,都市景観の重要部分である車両の放射場を設計する。
In-the-wild画像から構築したデータセットを用いて、制御可能な外観編集機能を徐々に提示する。
- 参考スコア(独自算出の注目度): 16.075690774805622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compositional neural scene graph studies have shown that radiance fields can
be an efficient tool in an editable autonomous driving simulator. However,
previous studies learned within a sequence of autonomous driving datasets,
resulting in unsatisfactory blurring when rotating the car in the simulator. In
this letter, we propose a pipeline for learning unconstrained images and
building a dataset from processed images. To meet the requirements of the
simulator, which demands that the vehicle maintain clarity when the perspective
changes and that the contour remains sharp from the background to avoid
artifacts when editing, we design a radiation field of the vehicle, a crucial
part of the urban scene foreground. Through experiments, we demonstrate that
our model achieves competitive performance compared to baselines. Using the
datasets built from in-the-wild images, our method gradually presents a
controllable appearance editing function. We will release the dataset and code
on https://lty2226262.github.io/car-studio/ to facilitate further research in
the field.
- Abstract(参考訳): 合成ニューラルシーングラフ研究は、放射場が編集可能な自律運転シミュレーターにおいて効率的なツールであることを示した。
しかし、これまでの研究では一連の自動運転データセットの中で学習し、シミュレータで車を回すとぼやけてしまう。
本稿では,制約のないイメージを学習し,処理されたイメージからデータセットを構築するパイプラインを提案する。
車両の視界が変化したときの明瞭さの維持と、編集時のアーティファクトを避けるため、背景から輪郭を鋭く保つことを求めるシミュレータの要件を満たすため、我々は、都市景観の重要部分である車両の放射場を設計する。
実験により,本モデルがベースラインよりも競争性能が高いことを示す。
In-the-wild画像から構築したデータセットを用いて、制御可能な外観編集機能を徐々に提示する。
我々はデータセットとコードをhttps://lty2226262.github.io/car-studio/でリリースし、この分野のさらなる研究を促進する。
関連論文リスト
- GarchingSim: An Autonomous Driving Simulator with Photorealistic Scenes
and Minimalist Workflow [24.789118651720045]
光実写シーンを用いた自律走行シミュレータを提案する。
シミュレータはROS2またはSocket.IOを介して外部アルゴリズムと通信することができる。
シミュレータ内に高精度な車両力学モデルを実装し,車体効果の現実性を高める。
論文 参考訳(メタデータ) (2024-01-28T23:26:15Z) - CADSim: Robust and Scalable in-the-wild 3D Reconstruction for
Controllable Sensor Simulation [44.83732884335725]
センサシミュレーションでは、車などの交通参加者を高品質な外観と明瞭な幾何学でモデル化する。
現在の再構築アプローチは、その広さとノイズのために、Wildのセンサーデータに苦労している。
本稿では,車体形状を自動再構成するために,CADモデルの小さなセットと微分レンダリングを併用したCADSimを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:56:59Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。