論文の概要: Exposure Fusion for Hand-held Camera Inputs with Optical Flow and
PatchMatch
- arxiv url: http://arxiv.org/abs/2304.04464v1
- Date: Mon, 10 Apr 2023 09:06:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 15:38:48.853471
- Title: Exposure Fusion for Hand-held Camera Inputs with Optical Flow and
PatchMatch
- Title(参考訳): オプティカルフローとパッチマッチによるハンドヘルドカメラ入力の露光融合
- Authors: Ru Li, Guanghui Liu, Bing Zeng, Shuaicheng Liu
- Abstract要約: ハンドヘルドカメラによるマルチ露光画像融合のためのハイブリッド合成法を提案する。
提案手法は,このような動作に対処し,各入力の露光情報を効果的に維持する。
実験の結果,本手法の有効性とロバスト性を示した。
- 参考スコア(独自算出の注目度): 53.149395644547226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a hybrid synthesis method for multi-exposure image fusion
taken by hand-held cameras. Motions either due to the shaky camera or caused by
dynamic scenes should be compensated before any content fusion. Any
misalignment can easily cause blurring/ghosting artifacts in the fused result.
Our hybrid method can deal with such motions and maintain the exposure
information of each input effectively. In particular, the proposed method first
applies optical flow for a coarse registration, which performs well with
complex non-rigid motion but produces deformations at regions with missing
correspondences. The absence of correspondences is due to the occlusions of
scene parallax or the moving contents. To correct such error registration, we
segment images into superpixels and identify problematic alignments based on
each superpixel, which is further aligned by PatchMatch. The method combines
the efficiency of optical flow and the accuracy of PatchMatch. After PatchMatch
correction, we obtain a fully aligned image stack that facilitates a
high-quality fusion that is free from blurring/ghosting artifacts. We compare
our method with existing fusion algorithms on various challenging examples,
including the static/dynamic, the indoor/outdoor and the daytime/nighttime
scenes. Experiment results demonstrate the effectiveness and robustness of our
method.
- Abstract(参考訳): 本稿では,ハンドヘルドカメラによるマルチ露光画像融合のためのハイブリッド合成法を提案する。
不安定なカメラによる動きやダイナミックなシーンによる動きは、コンテンツが融合する前に補償されるべきである。
どんなミスアライメントでも、融合した結果において、ぼやけたり、隠したりするアーティファクトを容易に引き起こすことができる。
ハイブリッド方式では,このような動作に対処でき,各入力の露光情報を効果的に維持できる。
特に, 提案手法は, 複雑な非剛体運動では良好に動作するが, 対応に欠ける領域での変形を生じさせる粗い登録に光学的流れを適用する。
対応の欠如は、シーンパララックスや移動内容の閉塞によるものである。
このようなエラー登録を補正するために、イメージをスーパーピクセルに分割し、各スーパーピクセルに基づいて問題のあるアライメントを識別する。
この方法は、光学フローの効率とパッチマッチの精度を組み合わせる。
パッチマッチング補正を行った後,ブレイピングやghostingアーティファクトの不要な高品質な融合を容易にする,完全なアライメントされたイメージスタックを得る。
本手法は,静的/動的,室内/外ドア,昼/夜のシーンなど,既存の融合アルゴリズムと比較した。
実験の結果,本手法の有効性とロバスト性を示した。
関連論文リスト
- Decomposition-based and Interference Perception for Infrared and Visible
Image Fusion in Complex Scenes [4.919706769234434]
本稿では,分解に基づく干渉知覚画像融合法を提案する。
可視画像の画素を光透過の散乱度から分類し,画像の細部とエネルギー情報を分離する。
この洗練された分解により、複雑なシーンにあるより干渉するピクセルを識別するモデルが提案される。
論文 参考訳(メタデータ) (2024-02-03T09:27:33Z) - Neural Spline Fields for Burst Image Fusion and Layer Separation [40.9442467471977]
ニューラルスプライン場を用いた2層α合成画像とフローモデルを用いた多目的中間表現を提案する。
提案手法では, バースト画像を高分解能な再構成に融合し, 透過層と閉塞層に分解することができる。
後処理のステップや事前学習がないため、当社の一般化可能なモデルは、既存の専用イメージやマルチビューの障害物除去アプローチよりも優れています。
論文 参考訳(メタデータ) (2023-12-21T18:54:19Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Time Lens++: Event-based Frame Interpolation with Parametric Non-linear
Flow and Multi-scale Fusion [47.57998625129672]
イベントや画像から1ショットの非線形なフレーム間動きを複数スケールのフィーチャレベル融合と計算する。
提案手法は,PSNRで最大0.2dB,LPIPSで最大15%の再現性向上を実現する。
論文 参考訳(メタデータ) (2022-03-31T17:14:58Z) - Neural Re-rendering for Full-frame Video Stabilization [144.9918806873405]
まず,高密度ワープ場を推定し,フルフレーム映像安定化のためのアルゴリズムを提案する。
フルフレーム安定化フレームは、隣接するフレームから歪んだコンテンツを融合することで合成することができる。
論文 参考訳(メタデータ) (2021-02-11T18:59:45Z) - Pixel-Wise Motion Deblurring of Thermal Videos [26.6875886332029]
冷却されていないマイクロボロメーターは、シーンから放射される「熱」を撮像することで、可視光の欠如をロボットが見ることができる。
暗く見える能力にもかかわらず、これらのセンサーは大きな動きのぼやけに悩まされる。
本稿では, 一つの画素における熱慣性の影響を, 最小絶対収縮・選択演算子 (LASSO) 問題として逆向きに定式化する。
論文 参考訳(メタデータ) (2020-06-08T22:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。