論文の概要: SIMBAR: Single Image-Based Scene Relighting For Effective Data
Augmentation For Automated Driving Vision Tasks
- arxiv url: http://arxiv.org/abs/2204.00644v1
- Date: Fri, 1 Apr 2022 18:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 13:30:37.173970
- Title: SIMBAR: Single Image-Based Scene Relighting For Effective Data
Augmentation For Automated Driving Vision Tasks
- Title(参考訳): SIMBAR:自動運転ビジョンタスクのための効果的なデータ拡張のための単一画像ベースのシーンリライティング
- Authors: Xianling Zhang, Nathan Tseng, Ameerah Syed, Rohan Bhasin, Nikita
Jaipuria
- Abstract要約: 本稿では,単一のイメージを入力として動作可能な,新しい画像ベースのリライトパイプラインSIMBARを提案する。
我々の知る限りでは、1つの画像から明示的な幾何学的表現を活用するシーンライティングに関する先行研究はない。
自動走行視覚タスクにおいて、SIMBARをデータ拡張に活用する利点を更に検証し、効果的に定量化する。
- 参考スコア(独自算出の注目度): 2.974889834426778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world autonomous driving datasets comprise of images aggregated from
different drives on the road. The ability to relight captured scenes to unseen
lighting conditions, in a controllable manner, presents an opportunity to
augment datasets with a richer variety of lighting conditions, similar to what
would be encountered in the real-world. This paper presents a novel image-based
relighting pipeline, SIMBAR, that can work with a single image as input. To the
best of our knowledge, there is no prior work on scene relighting leveraging
explicit geometric representations from a single image. We present qualitative
comparisons with prior multi-view scene relighting baselines. To further
validate and effectively quantify the benefit of leveraging SIMBAR for data
augmentation for automated driving vision tasks, object detection and tracking
experiments are conducted with a state-of-the-art method, a Multiple Object
Tracking Accuracy (MOTA) of 93.3% is achieved with CenterTrack on
SIMBAR-augmented KITTI - an impressive 9.0% relative improvement over the
baseline MOTA of 85.6% with CenterTrack on original KITTI, both models trained
from scratch and tested on Virtual KITTI. For more details and SIMBAR relit
datasets, please visit our project website (https://simbarv1.github.io/).
- Abstract(参考訳): 現実の自動運転データセットは、道路上のさまざまなドライブから集約された画像で構成されている。
撮影されたシーンをリライトして、目に見えない照明条件をコントロールできる能力は、現実世界で見られるような、より多様な照明条件でデータセットを増強する機会を提供する。
本稿では,単一のイメージを入力として動作可能な新しい画像ベースのリライトパイプラインSIMBARを提案する。
我々の知る限りでは、1つの画像から明示的な幾何学的表現を活用するシーンライティングに関する先行研究はない。
従来のマルチビューシーンのリライトベースラインと定性比較を行った。
To further validate and effectively quantify the benefit of leveraging SIMBAR for data augmentation for automated driving vision tasks, object detection and tracking experiments are conducted with a state-of-the-art method, a Multiple Object Tracking Accuracy (MOTA) of 93.3% is achieved with CenterTrack on SIMBAR-augmented KITTI - an impressive 9.0% relative improvement over the baseline MOTA of 85.6% with CenterTrack on original KITTI, both models trained from scratch and tested on Virtual KITTI.
詳細とSIMBARが依存するデータセットについては、プロジェクトのWebサイト(https://simbarv1.github.io/)を参照してください。
関連論文リスト
- LoLI-Street: Benchmarking Low-Light Image Enhancement and Beyond [37.47964043913622]
先進都市における街路シーンの低照度画像と高露光画像が33k対のLoLI-Street(Low-Light Images of Streets)を新たに導入した。
LoLI-Streetデータセットはまた、実環境下でLLIEモデルをテストするための1,000の実際の低照度テストイメージも備えている。
論文 参考訳(メタデータ) (2024-10-13T13:11:56Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Car-Studio: Learning Car Radiance Fields from Single-View and Endless
In-the-wild Images [16.075690774805622]
本稿では,制約のない画像の学習と,処理された画像からのデータセット構築のためのパイプラインを提案する。
シミュレータの要件を満たすため,都市景観の重要部分である車両の放射場を設計する。
In-the-wild画像から構築したデータセットを用いて、制御可能な外観編集機能を徐々に提示する。
論文 参考訳(メタデータ) (2023-07-26T07:44:34Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - VIDIT: Virtual Image Dataset for Illumination Transfer [18.001635516017902]
VIDIT(Virtual Image dataset for Illumination Transfer)を提案する。
VIDITには、トレーニングに使用される300の仮想シーンが含まれており、各シーンは合計で40回撮影されている。
論文 参考訳(メタデータ) (2020-05-11T21:58:03Z) - SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction [78.91518036949918]
本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
論文 参考訳(メタデータ) (2020-04-04T21:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。