論文の概要: Dehazing Cost Volume for Deep Multi-view Stereo in Scattering Media with
Airlight and Scattering Coefficient Estimation
- arxiv url: http://arxiv.org/abs/2011.09114v2
- Date: Wed, 2 Dec 2020 05:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:21:20.110804
- Title: Dehazing Cost Volume for Deep Multi-view Stereo in Scattering Media with
Airlight and Scattering Coefficient Estimation
- Title(参考訳): 大気光と散乱係数推定による散乱媒質中の深層多視点ステレオの消音コスト体積
- Authors: Yuki Fujimura, Motoharu Sonogashira, Masaaki Iiyama
- Abstract要約: 本稿では, 霧や煙などの散乱媒体における学習型マルチビューステレオ(MVS)手法を提案する。
散乱媒体で撮影された画像は、懸濁粒子による光散乱と減衰により劣化する。
- 参考スコア(独自算出の注目度): 7.612259653177203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a learning-based multi-view stereo (MVS) method in scattering
media, such as fog or smoke, with a novel cost volume, called the dehazing cost
volume. Images captured in scattering media are degraded due to light
scattering and attenuation caused by suspended particles. This degradation
depends on scene depth; thus, it is difficult for traditional MVS methods to
evaluate photometric consistency because the depth is unknown before
three-dimensional (3D) reconstruction. The dehazing cost volume can solve this
chicken-and-egg problem of depth estimation and image restoration by computing
the scattering effect using swept planes in the cost volume. We also propose a
method of estimating scattering parameters, such as airlight, and a scattering
coefficient, which are required for our dehazing cost volume. The output depth
of a network with our dehazing cost volume can be regarded as a function of
these parameters; thus, they are geometrically optimized with a sparse 3D point
cloud obtained at a structure-from-motion step. Experimental results on
synthesized hazy images indicate the effectiveness of our dehazing cost volume
against the ordinary cost volume regarding scattering media. We also
demonstrated the applicability of our dehazing cost volume to real foggy
scenes.
- Abstract(参考訳): 本稿では, 霧や煙などの散乱媒体における学習型マルチビューステレオ(MVS)手法を提案する。
散乱媒体で撮影された画像は、懸濁粒子による光散乱と減衰により劣化する。
この劣化はシーンの深さに依存するため、従来のMVS法では3次元の3次元再構成前の深さが不明であるため、光度整合性を評価することは困難である。
除染コストボリュームは,スウェプト平面を用いた散乱効果を計算し,この深さ推定と画像復元のニワトリ・アンド・エッグ問題を解くことができる。
また, 大気光等の散乱パラメータや散乱係数を推定する方法を提案する。
これらのパラメータの関数として, ネットワークの出力深度を推定できるので, 移動段階から得られるスパース3D点雲を幾何的に最適化することができる。
合成したhazy画像を用いた実験の結果, 散乱媒体に関する平均コスト体積に対する消泡コスト体積の有効性が示された。
また,実際の霧のシーンに消耗するコストボリュームの適用性も実証した。
関連論文リスト
- A real-time rendering method for high albedo anisotropic materials with
multiple scattering [0.4297070083645048]
本稿では、ニューラルネットワークを用いて放射移動方程式を解く反復積分過程をシミュレートする。
この方法は、リアルなボリュームメディアレンダリング効果を実現し、レンダリング速度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-01-25T10:08:53Z) - DS-Depth: Dynamic and Static Depth Estimation via a Fusion Cost Volume [26.990400985745786]
移動物体を記述するために残留光流を利用する新しい動的コスト容積を提案する。
その結果,本モデルは自己教師付き単分子深度推定の基準線よりも優れていた。
論文 参考訳(メタデータ) (2023-08-14T15:57:42Z) - Polarimetric iToF: Measuring High-Fidelity Depth through Scattering
Media [35.78671232637732]
間接飛行時間(iToF)イメージングにより、高密度の深度情報を低コストで取得できる。
iToFイメージングは、散乱媒体の存在下では、しばしばマルチパス干渉(MPI)アーティファクトに悩まされる。
散乱媒質を介して深度情報を頑健にキャプチャできる偏光iToFイメージング法を提案する。
論文 参考訳(メタデータ) (2023-06-30T12:42:40Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - OccCasNet: Occlusion-aware Cascade Cost Volume for Light Field Depth
Estimation [26.572015989990845]
LF深度(分散度)推定のためのオクルージョン対応カスケードコストボリュームを提案する。
本手法では, サンプリング間隔を一定に保ちながら, サンプリング数を削減する。
提案手法は精度と効率のバランスが良く,まずMSEとQ25の指標でランク付けする。
論文 参考訳(メタデータ) (2023-05-28T12:31:27Z) - Pixelated Reconstruction of Foreground Density and Background Surface
Brightness in Gravitational Lensing Systems using Recurrent Inference
Machines [116.33694183176617]
我々は、リカレント推論マシンに基づくニューラルネットワークを用いて、背景画像の歪みのない画像と、画素マップとしてのレンズ質量密度分布を再構成する。
従来のパラメトリックモデルと比較して、提案手法はより表現力が高く、複雑な質量分布を再構成することができる。
論文 参考訳(メタデータ) (2023-01-10T19:00:12Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Displacement-Invariant Matching Cost Learning for Accurate Optical Flow
Estimation [109.64756528516631]
学習のマッチングコストは、最先端のディープステレオマッチング手法の成功に不可欠であることが示されている。
本稿では,5次元特徴量構築の要件を回避できる新しい手法を提案する。
提案手法は,各種データセットにおける最先端の精度を実現し,Sintelベンチマークにおける全光フロー法より優れる。
論文 参考訳(メタデータ) (2020-10-28T09:57:00Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z) - Learning Inverse Depth Regression for Multi-View Stereo with Correlation
Cost Volume [32.41293572426403]
深層学習は多視点ステレオ(MVS)の深部推論に有効であることが示されている。
しかし、この領域ではスケーラビリティと正確性は依然として未解決の問題である。
ステレオマッチングにおけるグループワイド相関に着想を得て,軽量なコストボリュームを構築するための平均グループワイド相関類似度尺度を提案する。
論文 参考訳(メタデータ) (2019-12-26T01:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。