論文の概要: Pixel Difference Convolutional Network for RGB-D Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2302.11951v1
- Date: Thu, 23 Feb 2023 12:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:36:57.168146
- Title: Pixel Difference Convolutional Network for RGB-D Semantic Segmentation
- Title(参考訳): RGB-Dセマンティックセグメンテーションのための画素差分畳み込みネットワーク
- Authors: Jun Yang, Lizhi Bai, Yaoru Sun, Chunqi Tian, Maoyu Mao, Guorun Wang
- Abstract要約: RGB-Dセマンティックセグメンテーションは、深度データの可用性のために畳み込みニューラルネットワークによって前進することができる。
固定グリッドカーネル構造を考えると、CNNは詳細できめ細かい情報をキャプチャする能力に限られる。
本稿では,差分畳み込みネットワーク(PDCNet)を提案する。
- 参考スコア(独自算出の注目度): 2.334574428469772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: RGB-D semantic segmentation can be advanced with convolutional neural
networks due to the availability of Depth data. Although objects cannot be
easily discriminated by just the 2D appearance, with the local pixel difference
and geometric patterns in Depth, they can be well separated in some cases.
Considering the fixed grid kernel structure, CNNs are limited to lack the
ability to capture detailed, fine-grained information and thus cannot achieve
accurate pixel-level semantic segmentation. To solve this problem, we propose a
Pixel Difference Convolutional Network (PDCNet) to capture detailed intrinsic
patterns by aggregating both intensity and gradient information in the local
range for Depth data and global range for RGB data, respectively. Precisely,
PDCNet consists of a Depth branch and an RGB branch. For the Depth branch, we
propose a Pixel Difference Convolution (PDC) to consider local and detailed
geometric information in Depth data via aggregating both intensity and gradient
information. For the RGB branch, we contribute a lightweight Cascade Large
Kernel (CLK) to extend PDC, namely CPDC, to enjoy global contexts for RGB data
and further boost performance. Consequently, both modal data's local and global
pixel differences are seamlessly incorporated into PDCNet during the
information propagation process. Experiments on two challenging benchmark
datasets, i.e., NYUDv2 and SUN RGB-D reveal that our PDCNet achieves
state-of-the-art performance for the semantic segmentation task.
- Abstract(参考訳): rgb-dセマンティクスセグメンテーションは、奥行きデータを利用できるため畳み込みニューラルネットワークで前進することができる。
物体は2次元の外観だけでは容易に識別できないが、局所的なピクセル差と奥行きの幾何学的パターンにより、うまく分離できる場合もある。
固定グリッドカーネル構造を考えると、CNNは詳細できめ細かい情報をキャプチャする能力に欠けるため、正確なピクセルレベルのセマンティックセマンティックセグメンテーションを達成できない。
そこで本研究では,深部データの局所範囲における強度と勾配情報を,それぞれRGBデータに対するグローバル範囲に集約することにより,詳細な固有パターンを捉えるための差分畳み込みネットワーク(PDCNet)を提案する。
正確には、pdcnetは深度分岐とrgb分岐からなる。
深度情報と勾配情報の両方を集約することで,深度データの局所的および詳細な幾何学的情報を検討するために,深度差畳み込み(PDC)を提案する。
RGB ブランチでは,CPDC を拡張する軽量な Cascade Large Kernel (CLK) を提供し,RGB データのグローバルなコンテキストを享受し,パフォーマンスをさらに向上する。
したがって、モーダルデータの局所的および大域的画素差は、情報伝達過程中にpdcnetにシームレスに組み込まれる。
NYUDv2とSUN RGB-Dの2つの挑戦的なベンチマークデータセットの実験により、私たちのPDCNetがセマンティックセグメンテーションタスクの最先端のパフォーマンスを達成することが明らかになった。
関連論文リスト
- Spatial-information Guided Adaptive Context-aware Network for Efficient
RGB-D Semantic Segmentation [9.198120596225968]
計算パラメータを削減し,アルゴリズムの堅牢性を保証する,効率的な軽量エンコーダデコーダネットワークを提案する。
また,NYUv2,SUN RGB-D,Cityscapesのデータセットを用いた実験結果から,本手法は最先端手法よりもセグメンテーション精度,推定時間,パラメータのトレードオフが良好であることが示された。
論文 参考訳(メタデータ) (2023-08-11T09:02:03Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - DCANet: Differential Convolution Attention Network for RGB-D Semantic
Segmentation [2.2032272277334375]
深度データに対する幾何情報と局所範囲相関を考慮した画素差分畳み込みアテンション(DCA)モジュールを提案する。
DCAを拡張して、長距離コンテキスト依存を伝播する差分畳み込み注意(EDCA)をアンサンブルする。
DCAとEDCAで構築された2分岐ネットワークである差分畳み込みネットワーク(DCANet)は、2モーダルデータのローカルおよびグローバルな情報を融合するために提案されている。
論文 参考訳(メタデータ) (2022-10-13T05:17:34Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - PDC: Piecewise Depth Completion utilizing Superpixels [0.0]
現在のアプローチは、いくつかの既知の欠点のあるCNNベースのメソッドに依存することが多い。
深層学習なしで完全に機能する小説『Piecewise Depth Completion』(PDC)を提案する。
本評価では,提案した処理ステップがKITTIデータセットに与える影響と,本手法の全体的な性能に与える影響について述べる。
論文 参考訳(メタデータ) (2021-07-14T13:58:39Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。