論文の概要: Volumetric Cloud Field Reconstruction
- arxiv url: http://arxiv.org/abs/2311.17657v1
- Date: Wed, 29 Nov 2023 14:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 21:07:43.857867
- Title: Volumetric Cloud Field Reconstruction
- Title(参考訳): 空間的クラウドフィールド再構成
- Authors: Jacob Lin, Miguel Farinha, Edward Gryspeerdt, Ronald Clark
- Abstract要約: 雲や霧などの体積現象は、3次元再構成システムにとって重要な課題である。
本稿では,数個のステレオペアからボリュームを再構成する手法を提案する。
深層ステレオモデルと3次元畳み込みニューラルネットワーク(3D CNN)と対流モジュールを組み合わせた新しいディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.888321789474013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volumetric phenomena, such as clouds and fog, present a significant challenge
for 3D reconstruction systems due to their translucent nature and their complex
interactions with light. Conventional techniques for reconstructing scattering
volumes rely on controlled setups, limiting practical applications. This paper
introduces an approach to reconstructing volumes from a few input stereo pairs.
We propose a novel deep learning framework that integrates a deep stereo model
with a 3D Convolutional Neural Network (3D CNN) and an advection module,
capable of capturing the shape and dynamics of volumes. The stereo depths are
used to carve empty space around volumes, providing the 3D CNN with a prior for
coping with the lack of input views. Refining our output, the advection module
leverages the temporal evolution of the medium, providing a mechanism to infer
motion and improve temporal consistency. The efficacy of our system is
demonstrated through its ability to estimate density and velocity fields of
large-scale volumes, in this case, clouds, from a sparse set of stereo image
pairs.
- Abstract(参考訳): 雲や霧のような体積現象は、その半透明な性質と光との複雑な相互作用により、3次元再構成システムにとって重要な課題となる。
散乱量を再構成する従来の技術は、制御された設定に依存し、実用的な応用を制限する。
本稿では,数組の入力ステレオペアからボリュームを再構成する手法を提案する。
本研究では,深層ステレオモデルと3次元畳み込みニューラルネットワーク(3d cnn)とアドベクションモジュールを統合し,ボリュームの形状とダイナミクスをキャプチャする新しいディープラーニングフレームワークを提案する。
ステレオ深度はボリュームの周りに空の空間を彫るために使われ、3D CNNに入力ビューの欠如に対処するための事前情報を提供する。
我々の出力を精査し、対流モジュールは媒体の時間的進化を活用し、運動を推論し、時間的一貫性を改善するメカニズムを提供する。
本システムの有効性は,ステレオ画像ペアのスパース集合から,大規模ボリューム(この場合雲)の密度と速度場を推定する能力によって実証される。
関連論文リスト
- ActiveNeuS: Neural Signed Distance Fields for Active Stereo [1.2470540422791463]
本稿では,アクティブステレオシステムのためのニューラルサイン付き距離場を提案し,一般化された構造光における暗黙の対応探索と三角測量を可能にする。
本手法では,少ない撮影画像であっても,低光環境下でのテクスチャレス面や等価面の再構成に成功している。
このような厳しい条件下で, 提案手法が最先端の復元品質を達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2024-10-20T12:20:47Z) - Deepfake Detection: Leveraging the Power of 2D and 3D CNN Ensembles [0.0]
本研究は,映像コンテンツの検証に革新的なアプローチを提案する。
この手法は高度な2次元および3次元畳み込みニューラルネットワークをブレンドする。
実験による検証は、この戦略の有効性を強調し、ディープフェイクの発生に対処する可能性を示している。
論文 参考訳(メタデータ) (2023-10-25T06:00:37Z) - Incremental Dense Reconstruction from Monocular Video with Guided Sparse
Feature Volume Fusion [23.984073189849024]
本報告では, TSDF値のリアルタイムな特徴量に基づく高密度再構成手法を提案し, 新たな深部特徴量からTSDF値を推定する。
不確実性を認識したマルチビューステレオネットワークを利用して、スパース特徴量における物理表面の初期ボクセル位置を推定する。
提案手法は,多くの場合において,より細部でより完全な再構築が可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T09:06:01Z) - BNV-Fusion: Dense 3D Reconstruction using Bi-level Neural Volume Fusion [85.24673400250671]
ニューラル・ボリューム・フュージョン (BNV-Fusion) は, ニューラル・暗黙表現とニューラル・レンダリングの最近の進歩を活用して高密度3次元再構成を行う。
新しい深度マップをグローバルな暗黙的表現に漸進的に統合するために、我々は新しい二段階融合戦略を提案する。
提案手法を定量的に定性的に評価し,既存手法よりも有意な改善を示した。
論文 参考訳(メタデータ) (2022-04-03T19:33:09Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z) - Polka Lines: Learning Structured Illumination and Reconstruction for
Active Stereo [52.68109922159688]
本稿では,波動光学と幾何光学の両方に依存した,アクティブステレオのための新しい微分可能な画像形成モデルと,新しい三眼再構成ネットワークを提案する。
Polka Lines" を再現ネットワークと組み合わせた共同最適化パターンは, 撮像条件全体にわたって, 最先端のアクティブステレオ深度推定を達成している。
論文 参考訳(メタデータ) (2020-11-26T04:02:43Z) - VC-Net: Deep Volume-Composition Networks for Segmentation and
Visualization of Highly Sparse and Noisy Image Data [13.805816310795256]
本稿では,3次元微小血管のロバスト抽出のためのエンドツーエンド深層学習手法VC-Netを提案する。
中心となる新規性は、ボリューム可視化技術(MIP)を自動利用して、3Dデータ探索を強化することである。
マルチストリーム畳み込みニューラルネットワークは、それぞれ3次元体積と2次元MIPの特徴を学習し、その相互依存性を結合体積-合成埋め込み空間で探索するために提案される。
論文 参考訳(メタデータ) (2020-09-14T04:15:02Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。