論文の概要: $\text{F}^2\text{HDR}$: Two-Stage HDR Video Reconstruction via Flow Adapter and Physical Motion Modeling
- arxiv url: http://arxiv.org/abs/2603.14920v1
- Date: Mon, 16 Mar 2026 07:27:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.131301
- Title: $\text{F}^2\text{HDR}$: Two-Stage HDR Video Reconstruction via Flow Adapter and Physical Motion Modeling
- Title(参考訳): $\text{F}^2\text{HDR}$:フローアダプタと物理モーションモデリングによる2段階HDRビデオ再構成
- Authors: Huanjing Yue, Dawei Li, Shaoxiong Tu, Jingyu Yang,
- Abstract要約: 既存の手法では, 動作優先領域における不正確なアライメント, 準最適特徴集約, 劣化した復元品質に悩まされることが多い。
我々は,フレーム間の動きを強く知覚し,複雑な動的シナリオにおいて細部を復元する2段階のビデオ再構成フレームワークである$textF2text$を提案する。
実験によると、$textF2text$$は、大きな動きと露出のバリエーションの下でゴーストフリーで高忠実な結果を達成する。
- 参考スコア(独自算出の注目度): 21.989561243459363
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing High Dynamic Range (HDR) videos from sequences of alternating-exposure Low Dynamic Range (LDR) frames remains highly challenging, especially under dynamic scenes where cross-exposure inconsistencies and complex motion make inter-frame alignment difficult, leading to ghosting and detail loss. Existing methods often suffer from inaccurate alignment, suboptimal feature aggregation, and degraded reconstruction quality in motion-dominated regions. To address these challenges, we propose $\text{F}^2\text{HDR}$, a two-stage HDR video reconstruction framework that robustly perceives inter-frame motion and restores fine details in complex dynamic scenarios. The proposed framework integrates a flow adapter that adapts generic optical flow for robust cross-exposure alignment, a physical motion modeling to identify salient motion regions, and a motion-aware refinement network that aggregates complementary information while removing ghosting and noise. Extensive experiments demonstrate that $\text{F}^2\text{HDR}$ achieves state-of-the-art performance on real-world HDR video benchmarks, producing ghost-free and high-fidelity results under large motion and exposure variations.
- Abstract(参考訳): 交互に露光する低ダイナミックレンジ(LDR)フレームのシーケンスからハイダイナミックレンジ(HDR)ビデオを再構成することは、特にクロス露光の不整合や複雑な動きがフレーム間のアライメントを困難にし、ゴーストやディテールの喪失につながる動的シーンにおいて、非常に困難である。
既存の手法では, 動作優先領域における不正確なアライメント, 準最適特徴集約, 劣化した復元品質に悩まされることが多い。
これらの課題に対処するために、フレーム間の動きを強く知覚し、複雑な動的シナリオにおいて詳細を復元する2段階のHDRビデオ再構成フレームワークである$\text{F}^2\text{HDR}$を提案する。
提案フレームワークは,強靭なクロス露光アライメントに汎用的な光フローを適応するフローアダプタと,健全な動作領域を識別する物理モーションモデリングと,ゴーストやノイズを除去しながら相補的な情報を集約するモーションアウェアリファインメントネットワークを統合した。
広汎な実験により、$\text{F}^2\text{HDR}$は実世界のHDRビデオベンチマークで最先端のパフォーマンスを達成し、大きな動きと露出の変化の下でゴーストフリーで高忠実な結果を生成する。
関連論文リスト
- Wavelet-Domain Masked Image Modeling for Color-Consistent HDR Video Reconstruction [69.35623794013152]
高ダイナミックレンジ(LDR)ビデオ再構成は、LDRビデオから微妙な明るさ、色、詳細を復元することを目的としている。
既存の方法は、しばしば色の不正確さと時間的不整合に悩まされる。
We propose WMNet, a novel HDR video reconstruction network that leverageing Wavelet domain Masked Image Modeling。
論文 参考訳(メタデータ) (2026-02-07T06:19:23Z) - Dynamic Novel View Synthesis in High Dynamic Range [78.72910306733607]
現在の手法は主に静的なシーンに焦点を当てており、すべてのシーン要素が静止していて生きていないことを暗黙的に仮定している。
HDR-4DGSは,革新的な動的トーンマッピングモジュールを備えたガウススプラッティング方式のアーキテクチャである。
実験により、HDR-4DGSは、定量的性能と視覚的忠実度の両方において、既存の最先端手法を超越していることが示された。
論文 参考訳(メタデータ) (2025-09-26T04:29:22Z) - MIORe & VAR-MIORe: Benchmarks to Push the Boundaries of Restoration [53.180212987726556]
動作回復ベンチマークの限界に対処する2つの新しいマルチタスクデータセットであるMIOReとVAR-MIOReを紹介する。
私たちのデータセットは、複雑なエゴカメラの動き、動的マルチオブジェクト相互作用、深さ依存のぼかし効果など、幅広い動きシナリオを捉えています。
論文 参考訳(メタデータ) (2025-09-08T15:34:31Z) - Event-assisted 12-stop HDR Imaging of Dynamic Scene [20.064191181938533]
本稿では,イベントカメラとRGBカメラを備えたデュアルカメラシステムを利用して,ダイナミックシーンのための新しい12ストップHDRイメージング手法を提案する。
イベントカメラは、時間的に密度が高く、ダイナミックレンジの信号を提供し、LDRフレーム間のアライメントを大きな露出差で改善し、動きによって引き起こされるゴーストアーティファクトを減らす。
本手法は,動的シーンにおけるHDRイメージングを12停止まで拡張し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T10:17:50Z) - HDRTransDC: High Dynamic Range Image Reconstruction with Transformer Deformation Convolution [21.870772317331447]
高ダイナミックレンジ(CAM)画像は、多露光低ダイナミックレンジ(LDR)画像を融合させることで、現実的な細部を持つ人工物のないHDR画像を生成することを目的としている。
融合歪みの除去を目的としたDWFBを提案する。
論文 参考訳(メタデータ) (2024-03-11T15:48:17Z) - LAN-HDR: Luminance-based Alignment Network for High Dynamic Range Video
Reconstruction [20.911738532410766]
本稿では,LDRフレームを特徴空間に整列させ,その特徴をHDRフレームにマージする,エンドツーエンドのHDRビデオ合成フレームワークを提案する。
トレーニングでは、フレーム再構築損失に加えて時間的損失を採用し、時間的一貫性を高め、フリッカリングを低減する。
論文 参考訳(メタデータ) (2023-08-22T01:43:00Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Deep Progressive Feature Aggregation Network for High Dynamic Range
Imaging [24.94466716276423]
本研究では,動的シーンにおけるHDR画像の画質向上のための高度な特徴集約ネットワークを提案する。
提案手法は,高対応特徴を暗黙的にサンプリングし,それらを粗い方法で集約してアライメントする。
実験の結果,提案手法は異なるシーン下での最先端性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2022-08-04T04:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。