論文の概要: Fast Generation of High Fidelity RGB-D Images by Deep-Learning with
Adaptive Convolution
- arxiv url: http://arxiv.org/abs/2002.05067v3
- Date: Fri, 12 Jun 2020 04:10:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-01 20:41:19.512568
- Title: Fast Generation of High Fidelity RGB-D Images by Deep-Learning with
Adaptive Convolution
- Title(参考訳): 適応的畳み込みを用いた深層学習による高忠実度RGB-D画像の高速生成
- Authors: Chuhua Xian, Dongjiu Zhang, Chengkai Dai, Charlie C. L. Wang
- Abstract要約: 本稿では,RGB-D画像を高解像度で効率よく生成する深層学習手法を提案する。
エンドツーエンドのアプローチとして、高忠実度RGB-D画像を毎秒約21フレームの速度で効率的に生成することができる。
- 参考スコア(独自算出の注目度): 10.085742605397124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using the raw data from consumer-level RGB-D cameras as input, we propose a
deep-learning based approach to efficiently generate RGB-D images with
completed information in high resolution. To process the input images in low
resolution with missing regions, new operators for adaptive convolution are
introduced in our deep-learning network that consists of three cascaded modules
-- the completion module, the refinement module and the super-resolution
module. The completion module is based on an architecture of encoder-decoder,
where the features of input raw RGB-D will be automatically extracted by the
encoding layers of a deep neural-network. The decoding layers are applied to
reconstruct the completed depth map, which is followed by a refinement module
to sharpen the boundary of different regions. For the super-resolution module,
we generate RGB-D images in high resolution by multiple layers for feature
extraction and a layer for up-sampling. Benefited from the adaptive convolution
operators newly proposed in this paper, our results outperform the existing
deep-learning based approaches for RGB-D image complete and super-resolution.
As an end-to-end approach, high fidelity RGB-D images can be generated
efficiently at the rate of around 21 frames per second.
- Abstract(参考訳): コンシューマレベルのRGB-Dカメラの生データを入力として,高解像度でRGB-D画像を効率よく生成する深層学習手法を提案する。
入力画像を欠落領域で低解像度で処理するために,3つのカスケードモジュール – 補完モジュール,リファインメントモジュール,スーパーレゾリューションモジュール – で構成される深層学習ネットワークにおいて,適応畳み込みのための新しい演算子を導入する。
完了モジュールはエンコーダデコーダのアーキテクチャに基づいており、入力された生RGB-Dの特徴はディープニューラルネットワークの符号化層によって自動的に抽出される。
復号化層を適用して完了した深度マップを再構築し、その後、改良モジュールで異なる領域の境界を絞り込む。
超解像モジュールでは,複数の特徴抽出層とアップサンプリング層により高解像度でRGB-D画像を生成する。
本稿では,新たに提案した適応畳み込み演算子を応用し,既存のRGB-D画像の深層学習に基づくアプローチよりも優れた結果を得た。
エンドツーエンドのアプローチとして、毎秒約21フレームの速度で高忠実度rgb-d画像を生成することができる。
関連論文リスト
- Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - High-Resolution Image Harmonization via Collaborative Dual
Transformations [13.9962809174055]
協調デュアルトランスフォーメーション(CDTNet)を用いた高分解能画像調和ネットワークを提案する。
我々のCDTNetは、画素間変換のための低解像度ジェネレータ、RGB-RGB変換のためのカラーマッピングモジュール、両方の利点を生かした改良モジュールから構成されている。
論文 参考訳(メタデータ) (2021-09-14T13:18:58Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Discrete Cosine Transform Network for Guided Depth Map Super-Resolution [19.86463937632802]
目標は、高解像度(HR)RGB画像を使用してエッジとオブジェクトの輪郭に関する余分な情報を提供し、低解像度の深度マップをHR画像にアップサンプリングできるようにすることです。
本稿では,4つのコンポーネントから構成されるDCTNet(Digital Discrete Cosine Transform Network)を提案する。
本手法は,最新手法を越しに,正確かつ人事深度マップを生成できることを示した。
論文 参考訳(メタデータ) (2021-04-14T17:01:03Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。