論文の概要: AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion
- arxiv url: http://arxiv.org/abs/2309.01624v1
- Date: Mon, 4 Sep 2023 14:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:22:38.900842
- Title: AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion
- Title(参考訳): AGG-Net: 深度画像補完のための注意ガイド付きGated-Convolutional Network
- Authors: Dongyue Chen, Tingxuan Huang, Zhimin Song, Shizhuo Deng, Tong Jia
- Abstract要約: 注意誘導ゲート畳み込みネットワーク(AGG-Net)に基づく深度画像補完のための新しいモデルを提案する。
符号化段階では、異なるスケールでの深度と色の特徴の融合を実現するために、AG-GConvモジュールが提案されている。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
- 参考スコア(独自算出の注目度): 1.8820731605557168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, stereo vision based on lightweight RGBD cameras has been widely
used in various fields. However, limited by the imaging principles, the
commonly used RGB-D cameras based on TOF, structured light, or binocular vision
acquire some invalid data inevitably, such as weak reflection, boundary
shadows, and artifacts, which may bring adverse impacts to the follow-up work.
In this paper, we propose a new model for depth image completion based on the
Attention Guided Gated-convolutional Network (AGG-Net), through which more
accurate and reliable depth images can be obtained from the raw depth maps and
the corresponding RGB images. Our model employs a UNet-like architecture which
consists of two parallel branches of depth and color features. In the encoding
stage, an Attention Guided Gated-Convolution (AG-GConv) module is proposed to
realize the fusion of depth and color features at different scales, which can
effectively reduce the negative impacts of invalid depth data on the
reconstruction. In the decoding stage, an Attention Guided Skip Connection
(AG-SC) module is presented to avoid introducing too many depth-irrelevant
features to the reconstruction. The experimental results demonstrate that our
method outperforms the state-of-the-art methods on the popular benchmarks
NYU-Depth V2, DIML, and SUN RGB-D.
- Abstract(参考訳): 近年,軽量rgbdカメラを用いたステレオビジョンが様々な分野で広く利用されている。
しかし、撮像原理に制限されるため、TOF、構造化光、双眼視に基づく一般的なRGB-Dカメラは、弱い反射、境界影、アーティファクトなどの必然的に無効なデータを取得し、その後の作業に悪影響を及ぼす可能性がある。
本稿では,生深度マップと対応するRGB画像から,より正確で信頼性の高い深度画像を得ることのできる,Attention Guided Gated-Convolutional Network (AGG-Net)に基づく深度画像補完モデルを提案する。
本モデルは奥行きと色の特徴の2つの並列分岐からなるunetライクなアーキテクチャを採用している。
符号化段階では,意図的誘導Gated-Convolution (AG-GConv) モジュールが,異なるスケールでの深度と色の特徴の融合を実現するために提案される。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
実験の結果,本手法はNYU-Depth V2, DIML, SUN RGB-Dのベンチマークにおいて,最先端の手法よりも優れていた。
関連論文リスト
- RGB Guided ToF Imaging System: A Survey of Deep Learning-based Methods [30.34690112905212]
RGBカメラをToFイメージングシステムに統合することは、現実世界を知覚するための重要な技術となっている。
本稿では, ネットワーク構造, 学習戦略, 評価指標, ベンチマークデータセット, 客観的関数など, RGBガイドによるToFイメージングに関する研究を包括的にレビューする。
論文 参考訳(メタデータ) (2024-05-16T17:59:58Z) - RBF Weighted Hyper-Involution for RGB-D Object Detection [0.0]
リアルタイムと2つのストリームRGBDオブジェクト検出モデルを提案する。
提案モデルでは, 深度誘導型ハイパーインボリューションを生深度マップの空間的相互作用パターンに基づいて動的に適応する深度誘導型ハイパーインボリューションと, アップサンプリングに基づくトレーニング可能な融合層からなる。
提案モデルは,NYU Depth v2データセットで他のRGB-Dベースオブジェクト検出モデルよりも優れており,SUN RGB-Dで比較した(第2位)結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-30T11:25:34Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - RGBD-Net: Predicting color and depth images for novel views synthesis [46.233701784858184]
RGBD-Netは,対象のポーズの深度マップとカラーイメージをマルチスケールで予測するために提案される。
その結果、RGBD-Netは、これまで見つからなかったデータに対してよく一般化されていることが示唆された。
論文 参考訳(メタデータ) (2020-11-29T16:42:53Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Cascade Graph Neural Networks for RGB-D Salient Object Detection [41.57218490671026]
色情報と深度情報の両方を用いて,RGB-D画像に対する正当性物体検出(SOD)の問題点を考察する。
この2つのデータソース間の相互利益を総合的に蒸留し推論できる統合フレームワークであるCascade Graph Neural Networks(Cas-Gnn)を紹介する。
Cas-Gnnは、いくつかの広く使用されているベンチマークにおいて、既存のRGB-DSODアプローチよりも大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2020-08-07T10:59:04Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。