論文の概要: Spatial Information Guided Convolution for Real-Time RGBD Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2004.04534v2
- Date: Fri, 8 Jan 2021 04:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:03:29.605165
- Title: Spatial Information Guided Convolution for Real-Time RGBD Semantic
Segmentation
- Title(参考訳): リアルタイムrgbd意味セグメンテーションのための空間情報案内畳み込み
- Authors: Lin-Zhuo Chen, Zheng Lin, Ziqin Wang, Yong-Liang Yang, and Ming-Ming
Cheng
- Abstract要約: 本稿では,効率的なRGB機能と3次元空間情報統合を実現するための空間情報ガイドコンボリューション(S-Conv)を提案する。
S-Convは、3次元空間情報によって導かれる畳み込みカーネルのサンプリングオフセットを推測する能力を有する。
我々はさらにS-Convを空間情報ガイド畳み込みネットワーク(SGNet)と呼ばれるセグメンテーションネットワークに組み込みます。
- 参考スコア(独自算出の注目度): 79.78416804260668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D spatial information is known to be beneficial to the semantic segmentation
task. Most existing methods take 3D spatial data as an additional input,
leading to a two-stream segmentation network that processes RGB and 3D spatial
information separately. This solution greatly increases the inference time and
severely limits its scope for real-time applications. To solve this problem, we
propose Spatial information guided Convolution (S-Conv), which allows efficient
RGB feature and 3D spatial information integration. S-Conv is competent to
infer the sampling offset of the convolution kernel guided by the 3D spatial
information, helping the convolutional layer adjust the receptive field and
adapt to geometric transformations. S-Conv also incorporates geometric
information into the feature learning process by generating spatially adaptive
convolutional weights. The capability of perceiving geometry is largely
enhanced without much affecting the amount of parameters and computational
cost. We further embed S-Conv into a semantic segmentation network, called
Spatial information Guided convolutional Network (SGNet), resulting in
real-time inference and state-of-the-art performance on NYUDv2 and SUNRGBD
datasets.
- Abstract(参考訳): 3次元空間情報はセグメンテーションタスクに有用であることが知られている。
既存のほとんどの手法は、3D空間データを付加的な入力として取り込んでおり、RGBと3D空間情報を別々に処理する2ストリームセグメンテーションネットワークにつながっている。
このソリューションは推論時間を大幅に増加させ、リアルタイムアプリケーションの範囲を大幅に制限します。
この問題を解決するために,効率的なRGB機能と3次元空間情報統合を実現する空間情報ガイド型畳み込み(S-Conv)を提案する。
s-convは、3次元空間情報によって導かれる畳み込み核のサンプリングオフセットを推定し、畳み込み層が受容場を調整し幾何学的変換に適応するのに役立つ。
S-Convはまた、空間適応的な畳み込み重みを生成することにより、幾何学的情報を特徴学習プロセスに組み込む。
幾何を知覚する能力は、パラメータの量や計算コストに大きな影響を与えずに大きく向上している。
さらにS-ConvをSGNet(Spatial Information Guided Convolutional Network)と呼ばれるセマンティックセグメンテーションネットワークに組み込み、NYUDv2およびSUNRGBDデータセット上でのリアルタイム推論と最先端のパフォーマンスを実現する。
関連論文リスト
- ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - Spatial-information Guided Adaptive Context-aware Network for Efficient
RGB-D Semantic Segmentation [9.198120596225968]
計算パラメータを削減し,アルゴリズムの堅牢性を保証する,効率的な軽量エンコーダデコーダネットワークを提案する。
また,NYUv2,SUN RGB-D,Cityscapesのデータセットを用いた実験結果から,本手法は最先端手法よりもセグメンテーション精度,推定時間,パラメータのトレードオフが良好であることが示された。
論文 参考訳(メタデータ) (2023-08-11T09:02:03Z) - Neural Progressive Meshes [54.52990060976026]
本稿では,共有学習空間を用いた3次元メッシュの伝送手法を提案する。
分割型エンコーダ・デコーダアーキテクチャを用いて,この空間を学習する。
本手法は複雑な3次元形状を多種多様な形状で評価し, 圧縮率と復元品質の点で, ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-10T17:58:02Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - The Projection-Enhancement Network (PEN) [3.0464385291578973]
サブサンプリングされた3Dデータを処理し、2次元RGBセマンティック圧縮を生成する新しい畳み込みモジュールを提案する。
PENでは、CellPoseで学習した意味表現が深さを符号化し、セグメンテーション性能を大幅に向上することを示す。
我々は、PENをデータ駆動型ソリューションとして、インスタンスセグメンテーションネットワークから2次元セグメンテーションを改善する3次元データの圧縮表現を形成する。
論文 参考訳(メタデータ) (2023-01-26T00:07:22Z) - Spatial Pruned Sparse Convolution for Efficient 3D Object Detection [41.62839541489369]
3Dシーンは多数のバックグラウンドポイントによって支配されており、主に前景オブジェクトにフォーカスする必要がある検出タスクには冗長である。
本稿では,既存の3D CNNの主要なコンポーネントを分析し,データの冗長性を無視し,さらにダウンサンプリングプロセスでそれを増幅することにより,余分な計算オーバーヘッドと不要な計算オーバーヘッドを発生させる。
SPS-ConvとSPSS-ConvとSPRSの2つの変種を含む新しい畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:19:06Z) - Data Augmented 3D Semantic Scene Completion with 2D Segmentation Priors [1.0973642726108543]
本稿では,新しいマルチモーダル3DディープCNNであるSPAwNを紹介する。
この分野で重要な課題は、完全にラベル付けされた現実世界の3Dデータセットがないことである。
本稿では,マルチモーダルSCネットワークに適用可能な3次元データ拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-11-26T04:08:34Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。