論文の概要: Car-Studio: Learning Car Radiance Fields from Single-View and Endless
In-the-wild Images
- arxiv url: http://arxiv.org/abs/2307.14009v1
- Date: Wed, 26 Jul 2023 07:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 13:07:43.898867
- Title: Car-Studio: Learning Car Radiance Fields from Single-View and Endless
In-the-wild Images
- Title(参考訳): car-studio:シングルビューとエンドレスインザワイルド画像から車の放射場を学ぶ
- Authors: Tianyu Liu, Hao Zhao, Yang Yu, Guyue Zhou, Ming Liu
- Abstract要約: 本稿では,制約のない画像の学習と,処理された画像からのデータセット構築のためのパイプラインを提案する。
シミュレータの要件を満たすため,都市景観の重要部分である車両の放射場を設計する。
In-the-wild画像から構築したデータセットを用いて、制御可能な外観編集機能を徐々に提示する。
- 参考スコア(独自算出の注目度): 16.075690774805622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compositional neural scene graph studies have shown that radiance fields can
be an efficient tool in an editable autonomous driving simulator. However,
previous studies learned within a sequence of autonomous driving datasets,
resulting in unsatisfactory blurring when rotating the car in the simulator. In
this letter, we propose a pipeline for learning unconstrained images and
building a dataset from processed images. To meet the requirements of the
simulator, which demands that the vehicle maintain clarity when the perspective
changes and that the contour remains sharp from the background to avoid
artifacts when editing, we design a radiation field of the vehicle, a crucial
part of the urban scene foreground. Through experiments, we demonstrate that
our model achieves competitive performance compared to baselines. Using the
datasets built from in-the-wild images, our method gradually presents a
controllable appearance editing function. We will release the dataset and code
on https://lty2226262.github.io/car-studio/ to facilitate further research in
the field.
- Abstract(参考訳): 合成ニューラルシーングラフ研究は、放射場が編集可能な自律運転シミュレーターにおいて効率的なツールであることを示した。
しかし、これまでの研究では一連の自動運転データセットの中で学習し、シミュレータで車を回すとぼやけてしまう。
本稿では,制約のないイメージを学習し,処理されたイメージからデータセットを構築するパイプラインを提案する。
車両の視界が変化したときの明瞭さの維持と、編集時のアーティファクトを避けるため、背景から輪郭を鋭く保つことを求めるシミュレータの要件を満たすため、我々は、都市景観の重要部分である車両の放射場を設計する。
実験により,本モデルがベースラインよりも競争性能が高いことを示す。
In-the-wild画像から構築したデータセットを用いて、制御可能な外観編集機能を徐々に提示する。
我々はデータセットとコードをhttps://lty2226262.github.io/car-studio/でリリースし、この分野のさらなる研究を促進する。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - SimGen: Simulator-conditioned Driving Scene Generation [50.03358485083602]
シミュレーション条件付きシーン生成フレームワークSimGenを紹介する。
SimGenは、シミュレータと現実世界のデータを混ぜることで、多様な運転シーンを生成することを学ぶ。
テキストプロンプトとシミュレータからのレイアウトに基づいて制御性を保ちながら、優れた生成品質と多様性を実現する。
論文 参考訳(メタデータ) (2024-06-13T17:58:32Z) - GarchingSim: An Autonomous Driving Simulator with Photorealistic Scenes
and Minimalist Workflow [24.789118651720045]
光実写シーンを用いた自律走行シミュレータを提案する。
シミュレータはROS2またはSocket.IOを介して外部アルゴリズムと通信することができる。
シミュレータ内に高精度な車両力学モデルを実装し,車体効果の現実性を高める。
論文 参考訳(メタデータ) (2024-01-28T23:26:15Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。