論文の概要: Discrete Cosine Transform Network for Guided Depth Map Super-Resolution
- arxiv url: http://arxiv.org/abs/2104.06977v1
- Date: Wed, 14 Apr 2021 17:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:13:58.514725
- Title: Discrete Cosine Transform Network for Guided Depth Map Super-Resolution
- Title(参考訳): 奥行きマップ超解像のための離散コサイン変換ネットワーク
- Authors: Zixiang Zhao, Jiangshe Zhang, Shuang Xu, Chunxia Zhang, Junmin Liu
- Abstract要約: 目標は、高解像度(HR)RGB画像を使用してエッジとオブジェクトの輪郭に関する余分な情報を提供し、低解像度の深度マップをHR画像にアップサンプリングできるようにすることです。
本稿では,4つのコンポーネントから構成されるDCTNet(Digital Discrete Cosine Transform Network)を提案する。
本手法は,最新手法を越しに,正確かつ人事深度マップを生成できることを示した。
- 参考スコア(独自算出の注目度): 19.86463937632802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Guided depth super-resolution (GDSR) is a hot topic in multi-modal image
processing. The goal is to use high-resolution (HR) RGB images to provide extra
information on edges and object contours, so that low-resolution depth maps can
be upsampled to HR ones. To solve the issues of RGB texture over-transferred,
cross-modal feature extraction difficulty and unclear working mechanism of
modules in existing methods, we propose an advanced Discrete Cosine Transform
Network (DCTNet), which is composed of four components. Firstly, the paired
RGB/depth images are input into the semi-coupled feature extraction module. The
shared convolution kernels extract the cross-modal common features, and the
private kernels extract their unique features, respectively. Then the RGB
features are input into the edge attention mechanism to highlight the edges
useful for upsampling. Subsequently, in the Discrete Cosine Transform (DCT)
module, where DCT is employed to solve the optimization problem designed for
image domain GDSR. The solution is then extended to implement the multi-channel
RGB/depth features upsampling, which increases the rationality of DCTNet, and
is more flexible and effective than conventional methods. The final depth
prediction is output by the reconstruction module. Numerous qualitative and
quantitative experiments demonstrate the effectiveness of our method, which can
generate accurate and HR depth maps, surpassing state-of-the-art methods.
Meanwhile, the rationality of modules is also proved by ablation experiments.
- Abstract(参考訳): 誘導深度超解像(GDSR)は多モード画像処理におけるホットトピックである。
目標は、高解像度(HR)のRGB画像を使用して、エッジとオブジェクトの輪郭の余分な情報を提供することで、低解像度の深度マップをHRにアップサンプリングできるようにすることである。
従来の手法では,RGBテクスチャの過渡転送,クロスモーダルな特徴抽出の難しさ,モジュールの動作機構の不明といった問題を解消するために,4つのコンポーネントから構成されるDCTNet(Disdisrete Cosine Transform Network)を提案する。
まず、対のrgb/deep画像が半結合特徴抽出モジュールに入力される。
共用畳み込みカーネルはクロスモーダル共通特徴を抽出し、プライベートカーネルはそれぞれ独自の特徴を抽出する。
次にRGB機能はエッジアテンション機構に入力され、アップサンプリングに役立つエッジをハイライトする。
その後、離散コサイン変換(DCT)モジュールにおいて、画像領域GDSR用に設計された最適化問題を解決するためにDCTが使用される。
このソリューションは、DCTNetの合理性を高め、従来の方法よりも柔軟で効果的であるマルチチャネルRGB/deepth機能アップサンプリングを実装するために拡張される。
最終深度予測は再構成モジュールによって出力される。
多くの定性的、定量的な実験により、最先端の手法を超越して正確な人事深度マップを作成できる手法の有効性が示された。
一方、加群の合理性はアブレーション実験によって証明される。
関連論文リスト
- DSR-Diff: Depth Map Super-Resolution with Diffusion Model [38.68563026759223]
本稿では,遅延空間内の拡散モデルを用いて,深度マップの超解像誘導を行う新しいCDSRパラダイムを提案する。
提案手法は,最先端手法と比較して,広範囲な実験において優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-16T14:18:10Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Fast Generation of High Fidelity RGB-D Images by Deep-Learning with
Adaptive Convolution [10.085742605397124]
本稿では,RGB-D画像を高解像度で効率よく生成する深層学習手法を提案する。
エンドツーエンドのアプローチとして、高忠実度RGB-D画像を毎秒約21フレームの速度で効率的に生成することができる。
論文 参考訳(メタデータ) (2020-02-12T16:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。