論文の概要: RGB-D-Fusion: Image Conditioned Depth Diffusion of Humanoid Subjects
- arxiv url: http://arxiv.org/abs/2307.15988v1
- Date: Sat, 29 Jul 2023 13:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 18:28:58.537962
- Title: RGB-D-Fusion: Image Conditioned Depth Diffusion of Humanoid Subjects
- Title(参考訳): RGB-D-Fusion:画像条件付きヒューマノイドの深度拡散
- Authors: Sascha Kirch (1), Valeria Olyunina (2), Jan Ond\v{r}ej (2), Rafael
Pag\'es (2), Sergio Martin (1), Clara P\'erez-Molina (1) ((1) UNED -
Universidad Nacional de Educaci\'on a Distancia, Madrid, Spain, (2) Volograms
ltd, Dublin, Ireland)
- Abstract要約: RGB-D-フュージョン(RGB-D-Fusion)は、拡散確率モデルである。
画像条件付き復調拡散確率モデルを用いた低分解能深度マップを生成する。
その後、低解像度のRGB-D画像に条件付された第2の拡散確率モデルを用いて深度マップをアップサンプリングする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present RGB-D-Fusion, a multi-modal conditional denoising diffusion
probabilistic model to generate high resolution depth maps from low-resolution
monocular RGB images of humanoid subjects. RGB-D-Fusion first generates a
low-resolution depth map using an image conditioned denoising diffusion
probabilistic model and then upsamples the depth map using a second denoising
diffusion probabilistic model conditioned on a low-resolution RGB-D image. We
further introduce a novel augmentation technique, depth noise augmentation, to
increase the robustness of our super-resolution model.
- Abstract(参考訳): RGB-D-Fusionは,ヒューマノイドの低分解能単分子RGB画像から高分解能深度マップを生成するマルチモーダル条件付き拡散確率モデルである。
RGB-D-Fusionは、まず、画像条件付きデノナイズ拡散確率モデルを用いて低分解能深度マップを生成し、次いで低分解能RGB-D画像に条件付き第2のデノナイズ拡散確率モデルを用いて深度マップを増幅する。
さらに,超高分解能モデルのロバスト性を高めるため,新しい拡張手法であるディープノイズ増強手法を導入する。
関連論文リスト
- Efficient Conditional Diffusion Model with Probability Flow Sampling for Image Super-resolution [35.55094110634178]
画像超解像のための確率フローサンプリングを用いた効率的な条件拡散モデルを提案する。
提案手法は,既存の拡散型画像超解像法よりも高画質化を実現している。
論文 参考訳(メタデータ) (2024-04-16T16:08:59Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - RBF Weighted Hyper-Involution for RGB-D Object Detection [0.0]
リアルタイムと2つのストリームRGBDオブジェクト検出モデルを提案する。
提案モデルでは, 深度誘導型ハイパーインボリューションを生深度マップの空間的相互作用パターンに基づいて動的に適応する深度誘導型ハイパーインボリューションと, アップサンプリングに基づくトレーニング可能な融合層からなる。
提案モデルは,NYU Depth v2データセットで他のRGB-Dベースオブジェクト検出モデルよりも優れており,SUN RGB-Dで比較した(第2位)結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-30T11:25:34Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - Near-Infrared Depth-Independent Image Dehazing using Haar Wavelets [13.561695463316031]
本稿では,RGB画像から色情報と対応するNIR画像から抽出したエッジ情報をハールウェーブレットを用いて組み合わせたヘイズ除去のための融合アルゴリズムを提案する。
提案アルゴリズムは,同じ領域のRGBエッジ特徴よりも,画像のヘイズ領域においてNIRエッジ特徴が顕著であることを示す。
論文 参考訳(メタデータ) (2022-03-26T14:07:31Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。