論文の概要: CasFusionNet: A Cascaded Network for Point Cloud Semantic Scene
Completion by Dense Feature Fusion
- arxiv url: http://arxiv.org/abs/2211.13702v1
- Date: Thu, 24 Nov 2022 16:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:46:03.447774
- Title: CasFusionNet: A Cascaded Network for Point Cloud Semantic Scene
Completion by Dense Feature Fusion
- Title(参考訳): CasFusionNet:Dense Feature Fusionによるポイントクラウドセマンティックシーン補完のためのカスケードネットワーク
- Authors: Jinfeng Xu, Xianzhi Li, Yuan Tang, Qiao Yu, Yixue Hao, Long Hu, Min
Chen
- Abstract要約: 本稿では,高密度特徴融合によるポイントクラウドセマンティックシーン補完のための新しいカスケードネットワークCasFusionNetを提案する。
上記の3つのモジュールを,各レベルでの高密度な特徴融合によって整理し,合計4つのレベルをカスケードし,各レベル間の特徴融合を十分な情報利用に活用する。
- 参考スコア(独自算出の注目度): 14.34344002500153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic scene completion (SSC) aims to complete a partial 3D scene and
predict its semantics simultaneously. Most existing works adopt the voxel
representations, thus suffering from the growth of memory and computation cost
as the voxel resolution increases. Though a few works attempt to solve SSC from
the perspective of 3D point clouds, they have not fully exploited the
correlation and complementarity between the two tasks of scene completion and
semantic segmentation. In our work, we present CasFusionNet, a novel cascaded
network for point cloud semantic scene completion by dense feature fusion.
Specifically, we design (i) a global completion module (GCM) to produce an
upsampled and completed but coarse point set, (ii) a semantic segmentation
module (SSM) to predict the per-point semantic labels of the completed points
generated by GCM, and (iii) a local refinement module (LRM) to further refine
the coarse completed points and the associated labels from a local perspective.
We organize the above three modules via dense feature fusion in each level, and
cascade a total of four levels, where we also employ feature fusion between
each level for sufficient information usage. Both quantitative and qualitative
results on our compiled two point-based datasets validate the effectiveness and
superiority of our CasFusionNet compared to state-of-the-art methods in terms
of both scene completion and semantic segmentation. The codes and datasets are
available at: https://github.com/JinfengX/CasFusionNet.
- Abstract(参考訳): semantic scene completion (ssc) は、部分的な3dシーンを完了し、その意味を同時に予測することを目的としている。
既存の作品の多くはvoxel表現を採用しており、voxelの解像度が上がるにつれてメモリと計算コストが増大する。
3次元点雲の観点からSSCを解こうとする研究はいくつかあるが、シーン補完とセマンティックセグメンテーションの2つのタスクの相関と相補性を完全には活用していない。
本稿では,高密度機能融合によるポイントクラウドセマンティックシーン補完のための新しいカスケードネットワークCasFusionNetを提案する。
特に私たちは
(i)大域完備モジュール(GCM)で、アップサンプリングされて完成したが粗い点集合を生成する。
(ii)GCMによって生成された完了点のポイントごとの意味ラベルを予測する意味セグメンテーションモジュール(SSM)
(iii)局所的な見地から粗い完成点及び関連ラベルをさらに洗練するための局所的精細化モジュール(lrm)。
上記の3つのモジュールを各レベルに密集したフィーチャーフュージョンで整理し,合計4つのレベルをカスケードし,各レベル間のフィーチャーフュージョンを用いて十分な情報利用を行う。
得られた2つのポイントベースデータセットの定量的・定性的な結果から,casfusionnetの有効性と優位性を,シーン補完と意味セグメンテーションの両面で検証した。
コードとデータセットは、https://github.com/JinfengX/CasFusionNet.comで公開されている。
関連論文リスト
- PointSSC: A Cooperative Vehicle-Infrastructure Point Cloud Benchmark for
Semantic Scene Completion [4.564209472726044]
Semantic Scene Completionは、複雑な3Dシーンのための空間占有とセマンティックラベルを共同で生成することを目的としている。
PointSSCは、セマンティックシーン補完のための最初の協調的な車両とインフラのポイントクラウドベンチマークである。
論文 参考訳(メタデータ) (2023-09-22T08:39:16Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - GFNet: Geometric Flow Network for 3D Point Cloud Semantic Segmentation [91.15865862160088]
本稿では,異なるビュー間の幾何対応性を検討するための幾何フローネットワーク (GFNet) を提案する。
具体的には、異なる視点にまたがって補完情報を双方向に整列し、伝播する新しい幾何フローモジュール(GFM)を考案する。
論文 参考訳(メタデータ) (2022-07-06T11:48:08Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Completing Partial Point Clouds with Outliers by Collaborative
Completion and Segmentation [22.521376982725517]
本稿では,騒音や外乱により汚染された点雲を補うために,CS-Netというエンドツーエンドネットワークを提案する。
我々の総合的な実験と、最先端の完成法との比較は、我々の優位性を示している。
論文 参考訳(メタデータ) (2022-03-18T07:31:41Z) - SCSS-Net: Superpoint Constrained Semi-supervised Segmentation Network
for 3D Indoor Scenes [6.3364439467281315]
本稿では,SCSS-Net という名称の3次元点雲に対するスーパーポイント制約付き半教師付きセグメンテーションネットワークを提案する。
具体的には、ラベルのない点群から予測される擬似ラベルを自己学習に利用し、幾何ベースおよび色に基づく領域成長アルゴリズムによって生成されたスーパーポイントを組み合わせて、疑似ラベルを低信頼で修正・削除する。
論文 参考訳(メタデータ) (2021-07-08T04:43:21Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z) - Cascaded Refinement Network for Point Cloud Completion [74.80746431691938]
本稿では,細かな物体形状を合成するための粗大な戦略とともに,カスケード型精細化ネットワークを提案する。
部分入力の局所的な詳細と大域的な形状情報を合わせて考えると、既存の詳細を不完全点集合に保存することができる。
また、各局所領域が同じパターンと基底的真理を持つことを保証し、複雑な点分布を学習するパッチ判別器を設計する。
論文 参考訳(メタデータ) (2020-04-07T13:03:29Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。