論文の概要: Monocular Depth Estimation for Semi-Transparent Volume Renderings
- arxiv url: http://arxiv.org/abs/2206.13282v1
- Date: Mon, 27 Jun 2022 13:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 20:31:58.472431
- Title: Monocular Depth Estimation for Semi-Transparent Volume Renderings
- Title(参考訳): 半透明ボリュームレンダリングのための単眼深度推定
- Authors: Dominik Engel, Sebastian Hartwig, Timo Ropinski
- Abstract要約: モノクル深度推定ネットワークは、現実世界のシーンではますます信頼性が増している。
本研究では,既存手法の単眼深度推定への適応が半透明ボリュームレンダリングにおいて良好であることを示す。
- 参考スコア(独自算出の注目度): 10.496309857650306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have shown great success in extracting geometric information
from color images. Especially, monocular depth estimation networks are
increasingly reliable in real-world scenes. In this work we investigate the
applicability of such monocular depth estimation networks to semi-transparent
volume rendered images. As depth is notoriously difficult to define in a
volumetric scene without clearly defined surfaces, we consider different depth
computations that have emerged in practice, and compare state-of-the-art
monocular depth estimation approaches for these different interpretations
during an evaluation considering different degrees of opacity in the
renderings. Additionally, we investigate how these networks can be extended to
further obtain color and opacity information, in order to create a layered
representation of the scene based on a single color image. This layered
representation consists of spatially separated semi-transparent intervals that
composite to the original input rendering. In our experiments we show that
adaptions of existing approaches to monocular depth estimation perform well on
semi-transparent volume renderings, which has several applications in the area
of scientific visualization.
- Abstract(参考訳): ニューラルネットワークは、カラー画像から幾何学的情報を抽出することに成功した。
特に,実世界のシーンでは,単眼深度推定ネットワークの信頼性が増している。
本研究では,このような単眼深度推定ネットワークの半透明ボリュームレンダリング画像への適用性について検討する。
表面が明確に定義されていないボリュームシーンでは、深度を定義できないため、実際に現れた異なる深度計算を考慮し、レンダリングにおける不透明度を考慮した評価において、これらの異なる解釈に対する最先端の単眼深度推定手法を比較した。
さらに,これらのネットワークを拡張して色や不透明度情報をさらに得ることにより,シーンの階層表現を単一カラー画像に基づいて作成する方法について検討する。
この階層表現は、空間的に分離された半透明区間からなり、元の入力レンダリングに合成される。
実験では,単眼深度推定への既存手法の適用が,科学的可視化の分野においていくつかの応用がある半透明ボリュームレンダリング上で有効であることを示す。
関連論文リスト
- Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Transparent Object Depth Completion [11.825680661429825]
理解と操作のための透明な物体の認識は、依然として大きな課題である。
深度マップに大きく依存する既存のロボットグリップ法は、その独特の視覚特性のために透明な物体には適さない。
本稿では,一視点RGB-Dに基づく深度推定と多視点深度推定の長所を組み合わせた,透明物体深度補完のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:38:06Z) - Depth Insight -- Contribution of Different Features to Indoor
Single-image Depth Estimation [8.712751056826283]
単分子深度推定設定において、既知の深さのキューの相対的寄与を定量化する。
本研究は, 形状, テクスチャ, 色, 彩度の単一特徴を分離して, 深度を推定するために, 特徴抽出技術を用いた。
論文 参考訳(メタデータ) (2023-11-16T17:38:21Z) - Depth-Relative Self Attention for Monocular Depth Estimation [23.174459018407003]
ディープニューラルネットワークは、RGB情報から抽出されたサイズ、日陰、テクスチャなど、さまざまな視覚的ヒントに依存している。
本稿では,相対深度を自己注意のガイダンスとして用いたRelative Depth Transformer (RED-T) という新しい深度推定モデルを提案する。
提案モデルでは, 単分子深度推定ベンチマークにおいて, 競合する結果が得られ, RGB情報に偏りが小さいことを示す。
論文 参考訳(メタデータ) (2023-04-25T14:20:31Z) - Monocular Depth Estimation Using Cues Inspired by Biological Vision
Systems [22.539300644593936]
単眼深度推定(MDE)は、シーンのRGB画像を同じカメラビューから画素幅の深度マップに変換することを目的としている。
MDEタスクの一部は、画像内のどの視覚的手がかりを深度推定に使用できるか、どのように使うかを学ぶことである。
モデルに視覚的キュー情報を明示的に注入することは深度推定に有用であることを示す。
論文 参考訳(メタデータ) (2022-04-21T19:42:36Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - Novel View Synthesis of Dynamic Scenes with Globally Coherent Depths
from a Monocular Camera [93.04135520894631]
本稿では,動的シーンの画像のコレクションを与えられた任意のビューや時間から画像を合成する新しい手法を提案する。
新しいビュー合成の鍵となる課題は、エピポーラ幾何学が動的コンテンツの局所的な動きに適用できない動的なシーン再構成から生じる。
この課題に対処するために、DSVが完成しているマルチビューステレオ(DMV)からの深度と深度を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-04-02T22:45:53Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。