論文の概要: Taylor Series-Inspired Local Structure Fitting Network for Few-shot Point Cloud Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2504.02454v1
- Date: Thu, 03 Apr 2025 10:19:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:56:27.771577
- Title: Taylor Series-Inspired Local Structure Fitting Network for Few-shot Point Cloud Semantic Segmentation
- Title(参考訳): Taylor Series-Inspired Local Structure Fitting Network for Few-shot Point Cloud Semantic Segmentation (特集:クラウド・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマン
- Authors: Changshuo Wang, Shuting He, Xiang Fang, Meiqing Wu, Siew-Kei Lam, Prayag Tiwari,
- Abstract要約: 少数のショットポイントクラウドセマンティックセグメンテーションは、限定されたラベル付きデータを使用して、ポイントクラウドシーンで"見えない"新しいカテゴリを正確にセグメンテーションすることを目的としている。
そこで本研究では,数点のクラウドセマンティックセグメンテーションセグメンテーションのための事前学習不要な局所構造適合ネットワークを提案する。
具体的には、不規則点雲の局所構造表現を適合問題として扱い、TaylorConvと呼ばれる新しい局所構造適合畳み込みを提案する。
- 参考スコア(独自算出の注目度): 21.39551065606368
- License:
- Abstract: Few-shot point cloud semantic segmentation aims to accurately segment "unseen" new categories in point cloud scenes using limited labeled data. However, pretraining-based methods not only introduce excessive time overhead but also overlook the local structure representation among irregular point clouds. To address these issues, we propose a pretraining-free local structure fitting network for few-shot point cloud semantic segmentation, named TaylorSeg. Specifically, inspired by Taylor series, we treat the local structure representation of irregular point clouds as a polynomial fitting problem and propose a novel local structure fitting convolution, called TaylorConv. This convolution learns the low-order basic information and high-order refined information of point clouds from explicit encoding of local geometric structures. Then, using TaylorConv as the basic component, we construct two variants of TaylorSeg: a non-parametric TaylorSeg-NN and a parametric TaylorSeg-PN. The former can achieve performance comparable to existing parametric models without pretraining. For the latter, we equip it with an Adaptive Push-Pull (APP) module to mitigate the feature distribution differences between the query set and the support set. Extensive experiments validate the effectiveness of the proposed method. Notably, under the 2-way 1-shot setting, TaylorSeg-PN achieves improvements of +2.28% and +4.37% mIoU on the S3DIS and ScanNet datasets respectively, compared to the previous state-of-the-art methods. Our code is available at https://github.com/changshuowang/TaylorSeg.
- Abstract(参考訳): 少数のショットポイントクラウドセマンティックセグメンテーションは、限定されたラベル付きデータを使用して、ポイントクラウドシーンで"見えない"新しいカテゴリを正確にセグメンテーションすることを目的としている。
しかし、事前学習に基づく手法は、過度の時間オーバーヘッドをもたらすだけでなく、不規則点雲間の局所的な構造表現も見落としている。
これらの問題に対処するために,TaylorSeg という,数ショットのクラウドセマンティックセマンティックセグメンテーションのための事前学習不要なローカル構造適合ネットワークを提案する。
具体的には、テイラー級数に着想を得た不規則点雲の局所構造表現を多項式適合問題として扱い、TaylorConvと呼ばれる新しい局所構造適合畳み込みを提案する。
この畳み込みは、局所幾何学構造の明示的な符号化から、点雲の低次基本情報と高次洗練された情報を学ぶ。
そして、TaylorConvを基本成分として、非パラメトリックTaylorSeg-NNとパラメトリックTaylorSeg-PNの2つの変種を構築する。
前者は事前訓練なしで既存のパラメトリックモデルに匹敵する性能を達成することができる。
後者については、Adaptive Push-Pull(APP)モジュールを装備し、クエリセットとサポートセットのフィーチャ分散の違いを軽減する。
大規模実験により提案手法の有効性が検証された。
特に、2ウェイの1ショット設定では、TaylorSeg-PNは以前の最先端の手法と比較して、S3DISデータセットとScanNetデータセットの+2.28%と+4.37% mIoUの改善を実現している。
私たちのコードはhttps://github.com/changshuowang/TaylorSeg.comで利用可能です。
関連論文リスト
- Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - Few-Shot 3D Point Cloud Semantic Segmentation via Stratified
Class-Specific Attention Based Transformer Network [22.9434434107516]
数ショットのクラウドセマンティックセマンティックセグメンテーションのための新しい多層トランスフォーマーネットワークを開発した。
提案手法は,既存の数ショットの3Dポイントクラウドセグメンテーションモデルよりも15%少ない推論時間で,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-28T00:27:54Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - SE(3)-Equivariant Attention Networks for Shape Reconstruction in
Function Space [50.14426188851305]
本稿では,第1のSE(3)-equivariant coordinate-based networkを提案する。
入力を正規格子に整列させる従来の形状再構成法とは対照的に、不規則で無向な点雲を直接操作する。
提案手法は,従来のSO(3)-equivariant法,およびSO(3)-augmented dataで訓練された非equivariant法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:15Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。