論文の概要: SCOPE: Scene-Contextualized Incremental Few-Shot 3D Segmentation
- arxiv url: http://arxiv.org/abs/2603.06572v2
- Date: Mon, 09 Mar 2026 11:24:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.588644
- Title: SCOPE: Scene-Contextualized Incremental Few-Shot 3D Segmentation
- Title(参考訳): SCOPE:Scene-Contextualized Incremental Few-Shot 3D Segmentation
- Authors: Vishal Thengane, Zhaochong An, Tianjin Huang, Son Lam Phung, Abdesselam Bouzerdoum, Lu Yin, Na Zhao, Xiatian Zhu,
- Abstract要約: SCOPE (Scene-conised Prototype Enrichment) は、プラグ&プレイの背景誘導型プロトタイプエンリッチメントフレームワークである。
プロトタイプベースの3Dセグメンテーション手法と統合されている。
新規クラスのIoUを6.98%、IoUを3.61%、IoUを2.25%、IoUを1.70%向上させる。
- 参考スコア(独自算出の注目度): 51.48871964840347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incremental Few-Shot (IFS) segmentation aims to learn new categories over time from only a few annotations. Although widely studied in 2D, it remains underexplored for 3D point clouds. Existing methods suffer from catastrophic forgetting or fail to learn discriminative prototypes under sparse supervision, and often overlook a key cue: novel categories frequently appear as unlabelled background in base-training scenes. We introduce SCOPE (Scene-COntextualised Prototype Enrichment), a plug-and-play background-guided prototype enrichment framework that integrates with any prototype-based 3D segmentation method. After base training, a class-agnostic segmentation model extracts high-confidence pseudo-instances from background regions to build a prototype pool. When novel classes arrive with few labelled samples, relevant background prototypes are retrieved and fused with few-shot prototypes to form enriched representations without retraining the backbone or adding parameters. Experiments on ScanNet and S3DIS show that SCOPE achieves SOTA performance, improving novel-class IoU by up to 6.98% and 3.61%, and mean IoU by 2.25% and 1.70%, respectively, while maintaining low forgetting. Code is available https://github.com/Surrey-UP-Lab/SCOPE.
- Abstract(参考訳): インクリメンタルFew-Shot(IFS)セグメンテーションは、いくつかのアノテーションから、時間とともに新しいカテゴリを学ぶことを目的としている。
2Dでは広く研究されているが、3Dポイントの雲については未発見のままである。
既存の手法は破滅的な忘れ込みや、粗末な監督の下で差別的なプロトタイプを学ばず、しばしば重要な手がかりを見落としている。
SCOPE(Scene-Contextualized Prototype Enrichment)は,任意のプロトタイプベースの3Dセグメンテーション手法と統合した,プラグインおよびプレイによる背景誘導型プロトタイプエンリッチメントフレームワークである。
ベーストレーニング後、クラスに依存しないセグメンテーションモデルは、バックグラウンド領域から高信頼の擬似インスタンスを抽出し、プロトタイププールを構築する。
新規クラスにラベル付きのサンプルがほとんどない場合、関連するバックグラウンドプロトタイプは検索され、数発のプロトタイプで融合され、バックボーンを再トレーニングしたりパラメータを追加したりすることなく、リッチな表現を形成する。
ScanNetとS3DISの実験では、SCOPEはSOTAの性能を達成し、新しいクラスIoUを最大6.98%、IoUを3.61%改善し、IoUを2.25%、IoUを1.70%改善した。
コードはhttps://github.com/Surrey-UP-Lab/SCOPE.comで入手できる。
関連論文リスト
- ProtoGuard-guided PROPEL: Class-Aware Prototype Enhancement and Progressive Labeling for Incremental 3D Point Cloud Segmentation [9.578322021478426]
オフラインでトレーニングされたセグメンテーションモデルは、以前見られたクラスを壊滅的に忘れてしまう可能性がある。
ProtoGuard と PROPEL は破滅的忘れの問題に対処するために提案されている。
提案手法は,S3DISデータセットとScanNetデータセットの両方において顕著な結果が得られる。
論文 参考訳(メタデータ) (2025-04-02T11:58:04Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Prototype Adaption and Projection for Few- and Zero-shot 3D Point Cloud
Semantic Segmentation [30.18333233940194]
本研究は, 少数ショットとゼロショットの3Dポイントクラウドセマンティックセマンティックセグメンテーションの課題に対処する。
提案手法は,S3DISベンチマークとScanNetベンチマークの2方向1ショット設定により,最先端のアルゴリズムを約7.90%,14.82%上回る。
論文 参考訳(メタデータ) (2023-05-23T17:58:05Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - PartSLIP: Low-Shot Part Segmentation for 3D Point Clouds via Pretrained
Image-Language Models [56.324516906160234]
一般化可能な3D部分分割は重要だが、ビジョンとロボティクスでは難しい。
本稿では,事前学習した画像言語モデルGLIPを利用して,3次元点雲の低ショット部分分割法を提案する。
我々は2Dから3Dへの豊富な知識を、ポイントクラウドレンダリングにおけるGLIPに基づく部分検出と新しい2D-to-3Dラベルリフトアルゴリズムにより転送する。
論文 参考訳(メタデータ) (2022-12-03T06:59:01Z) - Prototypical VoteNet for Few-Shot 3D Point Cloud Object Detection [37.48935478836176]
VoteNetは、数発の3Dポイントクラウドオブジェクト検出アプローチである。
PVM(Prototypeal Vote Module)とPHM(Prototypeal Head Module)の2つの新しいモジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-10-11T16:25:38Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。