論文の概要: Learning to See Through Obstructions with Layered Decomposition
- arxiv url: http://arxiv.org/abs/2008.04902v3
- Date: Sun, 25 Jul 2021 06:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:19:37.239080
- Title: Learning to See Through Obstructions with Layered Decomposition
- Title(参考訳): 層状分解による障害物の観察
- Authors: Yu-Lun Liu, Wei-Sheng Lai, Ming-Hsuan Yang, Yung-Yu Chuang, Jia-Bin
Huang
- Abstract要約: 移動画像から不要な障害を取り除くための学習に基づくアプローチを提案する。
本手法は背景要素と閉塞要素の運動差を利用して両方の層を復元する。
本研究では,合成データから得られた提案手法が実画像に対して良好に動作することを示す。
- 参考スコア(独自算出の注目度): 117.77024641706451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a learning-based approach for removing unwanted obstructions, such
as window reflections, fence occlusions, or adherent raindrops, from a short
sequence of images captured by a moving camera. Our method leverages motion
differences between the background and obstructing elements to recover both
layers. Specifically, we alternate between estimating dense optical flow fields
of the two layers and reconstructing each layer from the flow-warped images via
a deep convolutional neural network. This learning-based layer reconstruction
module facilitates accommodating potential errors in the flow estimation and
brittle assumptions, such as brightness consistency. We show that the proposed
approach learned from synthetically generated data performs well to real
images. Experimental results on numerous challenging scenarios of reflection
and fence removal demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): 本稿では,移動カメラで撮影した短い画像から,窓反射,フェンス閉塞,付着雨滴などの不要な障害物を除去するための学習に基づくアプローチを提案する。
本手法は背景と閉塞要素の運動差を利用して両層を復元する。
具体的には, 深い畳み込みニューラルネットワークを用いて, 2層の密集した光学的流れ場を推定し, 画像から各層を再構成する手法を交互に提案する。
この学習ベースの層再構築モジュールは、流動推定における潜在的なエラーや明るさの整合性などの不安定な仮定の調整を容易にする。
合成データから得られた提案手法は実画像に対して良好に動作することを示す。
反射とフェンス除去の難解なシナリオに対する実験結果から,提案手法の有効性が示された。
関連論文リスト
- Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Neural Spline Fields for Burst Image Fusion and Layer Separation [40.9442467471977]
ニューラルスプライン場を用いた2層α合成画像とフローモデルを用いた多目的中間表現を提案する。
提案手法では, バースト画像を高分解能な再構成に融合し, 透過層と閉塞層に分解することができる。
後処理のステップや事前学習がないため、当社の一般化可能なモデルは、既存の専用イメージやマルチビューの障害物除去アプローチよりも優れています。
論文 参考訳(メタデータ) (2023-12-21T18:54:19Z) - Iterative Gradient Encoding Network with Feature Co-Occurrence Loss for
Single Image Reflection Removal [6.370905925442655]
単一画像反射除去のための反復グラデーション符号化ネットワークを提案する。
提案手法は,既存の画像設定に対する反射を良好に除去することができる。
論文 参考訳(メタデータ) (2021-03-29T19:29:29Z) - Location-aware Single Image Reflection Removal [54.93808224890273]
本稿では,位置認識型深層学習に基づく単一画像反射除去手法を提案する。
我々は,リフレクション信頼度マップをネットワークの手がかりとして活用し,リフレクション情報を適応的にエンコードする方法を学習する。
位置情報のネットワークへの統合は、反射除去結果の品質を大幅に向上させる。
論文 参考訳(メタデータ) (2020-12-13T19:34:35Z) - Unsupervised Single-Image Reflection Separation Using Perceptual Deep
Image Priors [6.333390830515411]
単一画像のリフレクション分離のための新しい教師なしフレームワークを提案する。
対象画像上の2つのクロスカップリング深部畳み込みネットワークのパラメータを最適化し、2つの排他的背景層と反射層を生成する。
その結果,本手法は単一画像からの反射を除去するための文献において最も近い教師なし手法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-01T21:08:30Z) - Learning to See Through Obstructions [117.77024641706451]
本稿では,移動カメラで撮影した短い画像列から不要な障害物を除去するための学習に基づくアプローチを提案する。
本手法は背景要素と障害物要素の運動差を利用して両方の層を復元する。
合成データ転送のトレーニングは実画像に対して良好であることを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:12Z) - Polarized Reflection Removal with Perfect Alignment in the Wild [66.48211204364142]
野生の偏光画像からの反射を除去するための新しい定式化法を提案する。
まず、既存のリフレクション除去データセットの不整合問題を同定する。
我々は100種類以上のガラスを用いた新しいデータセットを構築し、得られた透過画像は入力された混合画像と完全に一致している。
論文 参考訳(メタデータ) (2020-03-28T13:29:31Z) - Single image reflection removal via learning with multi-image
constraints [50.54095311597466]
本稿では、上記のアプローチの利点を組み合わせ、その欠点を克服する新しい学習ベースソリューションを提案する。
提案アルゴリズムはディープニューラルネットワークを学習して、複数の入力画像間で強化されたジョイント制約でターゲットを最適化する。
我々のアルゴリズムは実画像上でリアルタイムかつ最先端の反射除去性能で動作する。
論文 参考訳(メタデータ) (2019-12-08T06:10:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。