論文の概要: ISETHDR: A Physics-based Synthetic Radiance Dataset for High Dynamic Range Driving Scenes
- arxiv url: http://arxiv.org/abs/2408.12048v1
- Date: Thu, 22 Aug 2024 00:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 15:33:26.103733
- Title: ISETHDR: A Physics-based Synthetic Radiance Dataset for High Dynamic Range Driving Scenes
- Title(参考訳): ISETHDR:高ダイナミックレンジ駆動シーンのための物理ベースの合成放射データセット
- Authors: Zhenyi Liu, Devesh Shah, Brian Wandell,
- Abstract要約: 本稿では,物理に基づく画像システムのためのエンドツーエンドソフトウェアシミュレーションについて述べる。
このソフトウェアを用いて,高ダイナミックレンジ環境における性能向上のためのセンサを探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes a physics-based end-to-end software simulation for image systems. We use the software to explore sensors designed to enhance performance in high dynamic range (HDR) environments, such as driving through daytime tunnels and under nighttime conditions. We synthesize physically realistic HDR spectral radiance images and use them as the input to digital twins that model the optics and sensors of different systems. This paper makes three main contributions: (a) We create a labeled (instance segmentation and depth), synthetic radiance dataset of HDR driving scenes. (b) We describe the development and validation of the end-to-end simulation framework. (c) We present a comparative analysis of two single-shot sensors designed for HDR. We open-source both the dataset and the software.
- Abstract(参考訳): 本稿では,物理に基づく画像システムのためのエンドツーエンドソフトウェアシミュレーションについて述べる。
本研究では,高ダイナミックレンジ(HDR)環境において,日中トンネルを走行したり,夜間の条件下での運転などの性能向上を目的としたセンサの探索を行う。
我々は、物理的にリアルなHDRスペクトル放射像を合成し、異なる系の光学とセンサーをモデル化するデジタルツインへの入力として使用する。
本論文の主な貢献は3つある。
(a)HDR運転シーンの合成放射率データセットをラベル付き(インスタントセグメンテーションと深度)作成する。
b) エンド・ツー・エンド・シミュレーション・フレームワークの開発と検証について述べる。
(c)HDR用に設計された2つの単発センサの比較分析を行った。
データセットとソフトウェアの両方をオープンソースにしています。
関連論文リスト
- Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - Learning to Find Missing Video Frames with Synthetic Data Augmentation:
A General Framework and Application in Generating Thermal Images Using RGB
Cameras [0.0]
本稿では,センサフレームレートのミスマッチによるデータ不足の問題に対処する。
本研究では, 条件付き生成逆数ネットワーク(cGAN)を用いて, 合成的かつ現実的な熱画像を作成することを提案する。
論文 参考訳(メタデータ) (2024-02-29T23:52:15Z) - An Asynchronous Linear Filter Architecture for Hybrid Event-Frame Cameras [9.69495347826584]
本稿では,HDRビデオ再構成と空間畳み込みのための非同期線形フィルタアーキテクチャを提案する。
提案したAKFパイプラインは、絶対強度誤差(69.4%削減)と画像類似度指数(平均35.5%改善)の両方において、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-03T12:37:59Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Text2Light: Zero-Shot Text-Driven HDR Panorama Generation [33.968466900204696]
我々は,ペアのトレーニングデータなしで4K+解像度のHDRIを生成するために,ゼロショットのテキスト駆動フレームワークであるText2Lightを提案する。
ゼロショットテキスト駆動パノラマ生成を実現するために,我々はまず,多様な環境テクスチャの個別表現として2つのコードブックを構築した。
超高分解能逆トーンマッピングを実現するため,LDRパノラマから360度画像の連続表現を導出した。
論文 参考訳(メタデータ) (2022-09-20T17:58:44Z) - A Lightweight Machine Learning Pipeline for LiDAR-simulation [8.18203294574182]
より現実的なLiDARシミュレーションのための軽量なアプローチを提案する。
中心となる考え方は、シミュレーションを画像から画像への変換問題にキャストすることである。
この戦略により、センサー固有の、高価で複雑なLiDAR物理シミュレーションを省略することができる。
論文 参考訳(メタデータ) (2022-08-05T12:45:53Z) - Single-shot Hyperspectral-Depth Imaging with Learned Diffractive Optics [72.9038524082252]
単発単眼単眼ハイパースペクトル(HS-D)イメージング法を提案する。
本手法では, 回折光学素子 (DOE) を用いる。
DOE の学習を容易にするため,ベンチトップ HS-D イメージラーを構築することで,最初の HS-D データセットを提案する。
論文 参考訳(メタデータ) (2020-09-01T14:19:35Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。