論文の概要: Dehazing Cost Volume for Deep Multi-view Stereo in Scattering Media with
Airlight and Scattering Coefficient Estimation
- arxiv url: http://arxiv.org/abs/2011.09114v2
- Date: Wed, 2 Dec 2020 05:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:21:20.110804
- Title: Dehazing Cost Volume for Deep Multi-view Stereo in Scattering Media with
Airlight and Scattering Coefficient Estimation
- Title(参考訳): 大気光と散乱係数推定による散乱媒質中の深層多視点ステレオの消音コスト体積
- Authors: Yuki Fujimura, Motoharu Sonogashira, Masaaki Iiyama
- Abstract要約: 本稿では, 霧や煙などの散乱媒体における学習型マルチビューステレオ(MVS)手法を提案する。
散乱媒体で撮影された画像は、懸濁粒子による光散乱と減衰により劣化する。
- 参考スコア(独自算出の注目度): 7.612259653177203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a learning-based multi-view stereo (MVS) method in scattering
media, such as fog or smoke, with a novel cost volume, called the dehazing cost
volume. Images captured in scattering media are degraded due to light
scattering and attenuation caused by suspended particles. This degradation
depends on scene depth; thus, it is difficult for traditional MVS methods to
evaluate photometric consistency because the depth is unknown before
three-dimensional (3D) reconstruction. The dehazing cost volume can solve this
chicken-and-egg problem of depth estimation and image restoration by computing
the scattering effect using swept planes in the cost volume. We also propose a
method of estimating scattering parameters, such as airlight, and a scattering
coefficient, which are required for our dehazing cost volume. The output depth
of a network with our dehazing cost volume can be regarded as a function of
these parameters; thus, they are geometrically optimized with a sparse 3D point
cloud obtained at a structure-from-motion step. Experimental results on
synthesized hazy images indicate the effectiveness of our dehazing cost volume
against the ordinary cost volume regarding scattering media. We also
demonstrated the applicability of our dehazing cost volume to real foggy
scenes.
- Abstract(参考訳): 本稿では, 霧や煙などの散乱媒体における学習型マルチビューステレオ(MVS)手法を提案する。
散乱媒体で撮影された画像は、懸濁粒子による光散乱と減衰により劣化する。
この劣化はシーンの深さに依存するため、従来のMVS法では3次元の3次元再構成前の深さが不明であるため、光度整合性を評価することは困難である。
除染コストボリュームは,スウェプト平面を用いた散乱効果を計算し,この深さ推定と画像復元のニワトリ・アンド・エッグ問題を解くことができる。
また, 大気光等の散乱パラメータや散乱係数を推定する方法を提案する。
これらのパラメータの関数として, ネットワークの出力深度を推定できるので, 移動段階から得られるスパース3D点雲を幾何的に最適化することができる。
合成したhazy画像を用いた実験の結果, 散乱媒体に関する平均コスト体積に対する消泡コスト体積の有効性が示された。
また,実際の霧のシーンに消耗するコストボリュームの適用性も実証した。
関連論文リスト
- Mode-GS: Monocular Depth Guided Anchored 3D Gaussian Splatting for Robust Ground-View Scene Rendering [47.879695094904015]
そこで本研究では,地上ロボット軌道データセットのための新しいビューレンダリングアルゴリズムであるMode-GSを提案する。
提案手法は,既存の3次元ガウススプラッティングアルゴリズムの限界を克服する目的で,アンカー付きガウススプラッターを用いている。
提案手法は,PSNR,SSIM,LPIPSの計測値に基づいて,自由軌道パターンを持つ地上環境におけるレンダリング性能を向上する。
論文 参考訳(メタデータ) (2024-10-06T23:01:57Z) - Flash Cache: Reducing Bias in Radiance Cache Based Inverse Rendering [62.92985004295714]
本稿では,レンダリングに偏りをもたらす近似を回避し,最適化に用いた勾配を求める手法を提案する。
これらのバイアスを除去することで、逆レンダリングに基づくレーダランスキャッシュの一般化が向上し、スペクトル反射のような光輸送効果に挑戦する際の品質が向上することを示す。
論文 参考訳(メタデータ) (2024-09-09T17:59:57Z) - FlowDepth: Decoupling Optical Flow for Self-Supervised Monocular Depth Estimation [8.78717459496649]
本稿では,ダイナミックモーションフローモジュール (DMFM) が機構ベースのアプローチで光学フローを分離し,動的領域をワープし,ミスマッチ問題を解くフローDepthを提案する。
高フレック領域と低テクスチャ領域による光度誤差の不公平性については,入力と損失レベルでそれぞれDepth-Cue-Aware Blur(DCABlur)とCost-Volumeの空間損失を用いて解決する。
論文 参考訳(メタデータ) (2024-03-28T10:31:23Z) - A real-time rendering method for high albedo anisotropic materials with
multiple scattering [0.4297070083645048]
本稿では、ニューラルネットワークを用いて放射移動方程式を解く反復積分過程をシミュレートする。
この方法は、リアルなボリュームメディアレンダリング効果を実現し、レンダリング速度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-01-25T10:08:53Z) - DS-Depth: Dynamic and Static Depth Estimation via a Fusion Cost Volume [26.990400985745786]
移動物体を記述するために残留光流を利用する新しい動的コスト容積を提案する。
その結果,本モデルは自己教師付き単分子深度推定の基準線よりも優れていた。
論文 参考訳(メタデータ) (2023-08-14T15:57:42Z) - Polarimetric iToF: Measuring High-Fidelity Depth through Scattering
Media [35.78671232637732]
間接飛行時間(iToF)イメージングにより、高密度の深度情報を低コストで取得できる。
iToFイメージングは、散乱媒体の存在下では、しばしばマルチパス干渉(MPI)アーティファクトに悩まされる。
散乱媒質を介して深度情報を頑健にキャプチャできる偏光iToFイメージング法を提案する。
論文 参考訳(メタデータ) (2023-06-30T12:42:40Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Displacement-Invariant Matching Cost Learning for Accurate Optical Flow
Estimation [109.64756528516631]
学習のマッチングコストは、最先端のディープステレオマッチング手法の成功に不可欠であることが示されている。
本稿では,5次元特徴量構築の要件を回避できる新しい手法を提案する。
提案手法は,各種データセットにおける最先端の精度を実現し,Sintelベンチマークにおける全光フロー法より優れる。
論文 参考訳(メタデータ) (2020-10-28T09:57:00Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z) - Learning Inverse Depth Regression for Multi-View Stereo with Correlation
Cost Volume [32.41293572426403]
深層学習は多視点ステレオ(MVS)の深部推論に有効であることが示されている。
しかし、この領域ではスケーラビリティと正確性は依然として未解決の問題である。
ステレオマッチングにおけるグループワイド相関に着想を得て,軽量なコストボリュームを構築するための平均グループワイド相関類似度尺度を提案する。
論文 参考訳(メタデータ) (2019-12-26T01:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。