論文の概要: InstantHDR: Single-forward Gaussian Splatting for High Dynamic Range 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2603.11298v1
- Date: Wed, 11 Mar 2026 20:51:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.637761
- Title: InstantHDR: Single-forward Gaussian Splatting for High Dynamic Range 3D Reconstruction
- Title(参考訳): InstantHDR:高ダイナミックレンジ3D再構成のための一方向ガウス切削法
- Authors: Dingqiang Ye, Jiacong Xu, Jianglu Ping, Yuxiang Guo, Chao Fan, Vishal M. Patel,
- Abstract要約: 既存のHDRパイプラインは、既知のカメラのポーズ、よく校正された高密度ポイントクラウド、シーンごとの時間的最適化に依存している。
現在のフィードフォワード代替品は、露出イン外観を仮定してHDR問題を見落としている。
フィードフォワードネットワークであるInstantを提案する。これは、1つのフォワードパスで非校正多重露光LDRコレクションから3次元HDRシーンを再構成する。
- 参考スコア(独自算出の注目度): 48.64335106961342
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: High dynamic range (HDR) novel view synthesis (NVS) aims to reconstruct HDR scenes from multi-exposure low dynamic range (LDR) images. Existing HDR pipelines heavily rely on known camera poses, well-initialized dense point clouds, and time-consuming per-scene optimization. Current feed-forward alternatives overlook the HDR problem by assuming exposure-invariant appearance. To bridge this gap, we propose InstantHDR, a feed-forward network that reconstructs 3D HDR scenes from uncalibrated multi-exposure LDR collections in a single forward pass. Specifically, we design a geometry-guided appearance modeling for multi-exposure fusion, and a meta-network for generalizable scene-specific tone mapping. Due to the lack of HDR scene data, we build a pre-training dataset, called HDR-Pretrain, for generalizable feed-forward HDR models, featuring 168 Blender-rendered scenes, diverse lighting types, and multiple camera response functions. Comprehensive experiments show that our InstantHDR delivers comparable synthesis performance to the state-of-the-art optimization-based HDR methods while enjoying $\sim700\times$ and $\sim20\times$ reconstruction speed improvement with our single-forward and post-optimization settings. All code, models, and datasets will be released after the review process.
- Abstract(参考訳): 高ダイナミックレンジ(HDR)新規ビュー合成(NVS)は、マルチ露光低ダイナミックレンジ(LDR)画像からHDRシーンを再構成することを目的としている。
既存のHDRパイプラインは、既知のカメラのポーズ、十分に初期化された高密度な点雲、シーンごとの時間的最適化に大きく依存している。
現在のフィードフォワード代替品は、露出不変の外観を仮定してHDR問題を見落としている。
このギャップを埋めるために、フィードフォワードネットワークであるInstantHDRを提案する。
具体的には、マルチ露光融合のための幾何学誘導外観モデリングと、一般化可能なシーン固有のトーンマッピングのためのメタネットワークを設計する。
HDRシーンデータがないため、我々はHDR-Pretrainと呼ばれる事前学習データセットを構築し、Blenderレンダリングされた168のシーン、多様な照明タイプ、複数のカメラ応答機能を備えたフィードフォワードHDRモデルを一般化できる。
総合的な実験によると、InstantHDRは最先端の最適化ベースのHDRメソッドに匹敵する合成性能を提供しつつ、シングルフォワードおよびポストオプティマイゼーション設定で$\sim700\times$および$\sim20\times$再構成速度の改善を享受している。
レビュープロセスの後に、すべてのコード、モデル、データセットがリリースされる。
関連論文リスト
- Reconstructing 3D Scenes in Native High Dynamic Range [82.90064638813185]
本研究では,HDR観測を直接モデル化した3次元シーン再構成法を提案する。
bf Native High Dynamic Range 3D Gaussian Splatting (NH-3DGS)を提案する。
NH-3DGSは, 再構成品質と動的レンジ保存において, 既存の手法よりも有意に優れる合成多視点HDRデータセットと実HDRデータセットの両方を実証した。
論文 参考訳(メタデータ) (2025-11-17T02:33:31Z) - Diffusion-Promoted HDR Video Reconstruction [45.73396977607666]
高ダイナミックレンジ(LDR)ビデオ再構成は、低ダイナミックレンジ(LDR)フレームから交互に露出したHDRビデオを生成することを目的としている。
既存の作品の多くは回帰に基づくパラダイムにのみ依存しており、ゴーストのアーティファクトや飽和した地域での詳細の欠如といった悪影響につながっている。
本稿では,HDR-V-Diffと呼ばれるHDR映像再構成のための拡散促進手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T13:38:10Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。