論文の概要: ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images
- arxiv url: http://arxiv.org/abs/2309.08957v1
- Date: Sat, 16 Sep 2023 11:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 18:11:25.268644
- Title: ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images
- Title(参考訳): ExBluRF:Extreme Motion Blurred画像のための高効率放射場
- Authors: Dongwoo Lee, Jeongtaek Oh, Jaesung Lim, Sunghyun Cho and Kyoung Mu Lee
- Abstract要約: 極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
- 参考スコア(独自算出の注目度): 56.46166724651961
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present ExBluRF, a novel view synthesis method for extreme motion blurred
images based on efficient radiance fields optimization. Our approach consists
of two main components: 6-DOF camera trajectory-based motion blur formulation
and voxel-based radiance fields. From extremely blurred images, we optimize the
sharp radiance fields by jointly estimating the camera trajectories that
generate the blurry images. In training, multiple rays along the camera
trajectory are accumulated to reconstruct single blurry color, which is
equivalent to the physical motion blur operation. We minimize the
photo-consistency loss on blurred image space and obtain the sharp radiance
fields with camera trajectories that explain the blur of all images. The joint
optimization on the blurred image space demands painfully increasing
computation and resources proportional to the blur size. Our method solves this
problem by replacing the MLP-based framework to low-dimensional 6-DOF camera
poses and voxel-based radiance fields. Compared with the existing works, our
approach restores much sharper 3D scenes from challenging motion blurred views
with the order of 10 times less training time and GPU memory consumption.
- Abstract(参考訳): 本稿では,効率的な放射場最適化に基づく極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリに基づく運動ぼけの定式化とボクセルベースの放射場からなる。
極めてぼやけた画像から、ぼやけた画像を生成するカメラの軌跡を共同で推定し、シャープな輝度場を最適化する。
トレーニングでは、カメラ軌道に沿った複数の光を蓄積して、物理的な動きぼけ操作に相当する単一のぼやけた色を再構成する。
ぼやけた画像空間におけるフォトコンシステンシー損失を最小限に抑え、全画像のぼやけを説明するカメラ軌跡を持つ鋭い輝度場を得る。
ぼやけた画像空間における共同最適化は、そのぼやけたサイズに比例した計算と資源の激増を要求する。
MLPベースのフレームワークを低次元の6-DOFカメラポーズとボクセルベースの放射場に置き換えることで,この問題を解決する。
既存の作品と比較して、より鮮明な3dシーンを10倍のトレーニング時間とgpuメモリ消費で、動きのぼやけたビューから復元する。
関連論文リスト
- MBA-SLAM: Motion Blur Aware Dense Visual SLAM with Radiance Fields Representation [15.752529196306648]
本研究では、重度動きブルレッド入力を処理するための高密度視覚SLAMパイプライン(MBA-SLAM)を提案する。
提案手法では,効率的な運動ぼかし対応トラッカーをニューラルネットワークとガウススプラッティングベースのマッパーに統合する。
MBA-SLAMは、カメラのローカライゼーションとマップ再構成の両方において、従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-13T01:38:06Z) - Motion Blur Decomposition with Cross-shutter Guidance [33.72961622720793]
動きのぼかしは、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない、照明が不十分な人工物である。
近年の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
本稿では, ローリングシャッター画像におけるスキャニングラインの遅延の順序を利用して, 単一のぼやけた画像の運動分解を強固にする手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T13:55:40Z) - Gaussian Splatting on the Move: Blur and Rolling Shutter Compensation for Natural Camera Motion [25.54868552979793]
本稿では,カメラの動きに適応し,手持ち映像データを用いた高品質なシーン再構成を実現する手法を提案する。
合成データと実データの両方を用いて、既存の手法よりもカメラの動きを軽減できる性能を示した。
論文 参考訳(メタデータ) (2024-03-20T06:19:41Z) - Adaptive Window Pruning for Efficient Local Motion Deblurring [81.35217764881048]
局所的な動きのぼかしは、露光中の移動物体と静止背景との混合により、実世界の写真で一般的に発生する。
既存の画像のデブロアリング手法は主にグローバルなデブロアリングに焦点を当てている。
本稿では,高解像度の局所的ぼやけた画像を適応的かつ効率的に復元することを目的とする。
論文 参考訳(メタデータ) (2023-06-25T15:24:00Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - ROSEFusion: Random Optimization for Online Dense Reconstruction under
Fast Camera Motion [15.873973449155313]
RGB-Dシーケンスに基づく再構成は、これまで比較的遅いカメラ動作(1m/s)に抑制されてきた。
高速モーションは深度融合に2つの課題をもたらす:1)フレーム間の大きな回転によるカメラポーズ最適化の非線形性、2)動きのぼかしによる確実に追跡可能な特徴の欠如。
ランダム最適化による慣性測定がない場合の高速移動カメラ追跡の難しさに対処することを提案する。
効率的なテンプレートベースパーティクルセットの進化と効果的なフィットネス機能により,高速カメラ動作(最大4m/s)下での良好な姿勢追跡を実現する。
論文 参考訳(メタデータ) (2021-05-12T11:37:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。