論文の概要: Depth-SIMS: Semi-Parametric Image and Depth Synthesis
- arxiv url: http://arxiv.org/abs/2203.03405v1
- Date: Mon, 7 Mar 2022 13:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:40:39.815436
- Title: Depth-SIMS: Semi-Parametric Image and Depth Synthesis
- Title(参考訳): 深度SIMS:半パラメトリック画像と深度合成
- Authors: Valentina Musat, Daniele De Martini, Matthew Gadd and Paul Newman
- Abstract要約: 本稿では,RGBキャンバスを高品質なRGB画像に変換するインペイントネットワークと組み合わせて,適切に整列されたセグメンテーションマップとスパース深度マップを備えたRGBキャンバスを生成する手法を提案する。
構造アライメントと画質の面でのベンチマークを行い,SOTAよりもmIoUが3.7%増加し,競争力の高いFIDが得られた。
セマンティックセグメンテーションと深度補完のためのトレーニングデータとして生成されたデータの品質を分析し,本手法が他の手法よりも適していることを示す。
- 参考スコア(独自算出の注目度): 23.700034054124604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a compositing image synthesis method that generates
RGB canvases with well aligned segmentation maps and sparse depth maps, coupled
with an in-painting network that transforms the RGB canvases into high quality
RGB images and the sparse depth maps into pixel-wise dense depth maps. We
benchmark our method in terms of structural alignment and image quality,
showing an increase in mIoU over SOTA by 3.7 percentage points and a highly
competitive FID. Furthermore, we analyse the quality of the generated data as
training data for semantic segmentation and depth completion, and show that our
approach is more suited for this purpose than other methods.
- Abstract(参考訳): 本稿では,RGBキャンバスを高画質のRGB画像に変換し,スパース深度マップを画素ワイド深度マップに変換するインペイントネットワークと組み合わせて,適切に整列されたセグメンテーションマップとスパース深度マップを生成する合成画像合成手法を提案する。
構造アライメントと画質の面でのベンチマークを行い,SOTAよりもmIoUが3.7%増加し,競争力の高いFIDが得られた。
さらに,意味的セグメンテーションと深度補完のためのトレーニングデータとして生成されたデータの品質を分析し,本手法が他の手法よりも適していることを示す。
関連論文リスト
- Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - Depth-guided Texture Diffusion for Image Semantic Segmentation [47.46257473475867]
本稿では,この課題を効果的に解決するディープスガイド型テクスチャ拡散手法を提案する。
本手法は,テクスチャ画像を作成するために,エッジやテクスチャから低レベル特徴を抽出する。
この拡張深度マップを元のRGB画像と結合した特徴埋め込みに統合することにより,深度マップと画像との相違を効果的に橋渡しする。
論文 参考訳(メタデータ) (2024-08-17T04:55:03Z) - Depth-Guided Semi-Supervised Instance Segmentation [62.80063539262021]
Semi-Supervised Instance (SSIS)は、トレーニング中にラベルなしデータの量を活用することを目的としている。
従来のフレームワークは主に、ラベルなし画像のRGB情報を利用して擬似ラベルを生成する。
この制限を克服するために、Depth-Guided (DG)フレームワークを導入します。
論文 参考訳(メタデータ) (2024-06-25T09:36:50Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - PDC: Piecewise Depth Completion utilizing Superpixels [0.0]
現在のアプローチは、いくつかの既知の欠点のあるCNNベースのメソッドに依存することが多い。
深層学習なしで完全に機能する小説『Piecewise Depth Completion』(PDC)を提案する。
本評価では,提案した処理ステップがKITTIデータセットに与える影響と,本手法の全体的な性能に与える影響について述べる。
論文 参考訳(メタデータ) (2021-07-14T13:58:39Z) - Deterministic Guided LiDAR Depth Map Completion [0.0]
本稿では, 誘導RGB画像を用いて, 疎LiDARに基づく深度マップを密度化するための非深度学習に基づくアプローチを提案する。
本手法の評価は,提案手法の検証を行うKITTI深度補完ベンチマークを用いて行う。
論文 参考訳(メタデータ) (2021-06-14T09:19:47Z) - A Method of Generating Measurable Panoramic Image for Indoor Mobile
Measurement System [36.47697710426005]
本稿では,深度情報を用いた高画質パノラマ画像を生成する手法を設計する。
画像データと3D点の融合については,パラメータ自己適応フレームワークを用いて2次元深度マップを作成する。
画像縫合にはグラフカット法を用いて重ね合わせ領域の最適シームラインを探索する。
論文 参考訳(メタデータ) (2020-10-27T13:12:02Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。