論文の概要: No Time to Train: Empowering Non-Parametric Networks for Few-shot 3D Scene Segmentation
- arxiv url: http://arxiv.org/abs/2404.04050v1
- Date: Fri, 5 Apr 2024 12:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 16:14:58.170914
- Title: No Time to Train: Empowering Non-Parametric Networks for Few-shot 3D Scene Segmentation
- Title(参考訳): 非パラメトリックネットワークを利用した3Dシーンセグメンテーション
- Authors: Xiangyang Zhu, Renrui Zhang, Bowei He, Ziyu Guo, Jiaming Liu, Han Xiao, Chaoyou Fu, Hao Dong, Peng Gao,
- Abstract要約: 我々は,小ショット3D,Seg-NN,およびそのパラメトリック変種であるSeg-PNの非パラメトリックネットワークを提案する。
Seg-PNは手作りフィルタで高密度表現を抽出し、既存のパラメトリックモデルに匹敵する性能を達成する。
実験により、Seg-PNは、S3DISデータセットとScanNetデータセットにおいて、従来の最先端手法を+4.19%、+7.71% mIoUで上回っていることが示唆された。
- 参考スコア(独自算出の注目度): 40.0506169981233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To reduce the reliance on large-scale datasets, recent works in 3D segmentation resort to few-shot learning. Current 3D few-shot segmentation methods first pre-train models on 'seen' classes, and then evaluate their generalization performance on 'unseen' classes. However, the prior pre-training stage not only introduces excessive time overhead but also incurs a significant domain gap on 'unseen' classes. To tackle these issues, we propose a Non-parametric Network for few-shot 3D Segmentation, Seg-NN, and its Parametric variant, Seg-PN. Without training, Seg-NN extracts dense representations by hand-crafted filters and achieves comparable performance to existing parametric models. Due to the elimination of pre-training, Seg-NN can alleviate the domain gap issue and save a substantial amount of time. Based on Seg-NN, Seg-PN only requires training a lightweight QUEry-Support Transferring (QUEST) module, which enhances the interaction between the support set and query set. Experiments suggest that Seg-PN outperforms previous state-of-the-art method by +4.19% and +7.71% mIoU on S3DIS and ScanNet datasets respectively, while reducing training time by -90%, indicating its effectiveness and efficiency.
- Abstract(参考訳): 大規模なデータセットへの依存を減らすため、3Dセグメンテーションにおける最近の研究は、数ショットの学習に頼っている。
現在の3次元ショットセグメンテーション手法は、まず「見えない」クラスで事前訓練を行い、次に「見えない」クラスで一般化性能を評価する。
しかし、事前トレーニングの段階は過剰な時間オーバーヘッドをもたらすだけでなく、"見えない"クラスにドメインギャップを生じさせる。
これらの課題に対処するために,Seg-NNとSeg-PNの非パラメトリックネットワークを提案する。
トレーニングなしで、Seg-NNは手作りのフィルタで密度の高い表現を抽出し、既存のパラメトリックモデルに匹敵する性能を達成する。
事前トレーニングの廃止により、Seg-NNはドメインギャップの問題を軽減することができ、かなりの時間を節約できる。
Seg-NNをベースとして、Seg-PNは、サポートセットとクエリセット間のインタラクションを強化する軽量なQUEry-Support Transferring (QUEST)モジュールのトレーニングのみを必要とする。
実験の結果、Seg-PNはS3DISデータセットとScanNetデータセットにおいて、従来の最先端手法を+4.19%、+7.71% mIoUで上回り、トレーニング時間を-90%削減し、その効果と効率性を示している。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Early-Exit with Class Exclusion for Efficient Inference of Neural
Networks [4.180653524441411]
ディープニューラルネットワーク(DNN)における動的推論のためのクラスベース早期抽出法を提案する。
これらのレイヤで学んだ機能を活用して、可能な限り多くの無関係なクラスを除外します。
実験により、推論におけるDNNの計算コストを大幅に削減できることを示した。
論文 参考訳(メタデータ) (2023-09-23T18:12:27Z) - Less is More: Towards Efficient Few-shot 3D Semantic Segmentation via
Training-free Networks [34.758951766323136]
3Dのスプリットショットセグメンテーション手法はまず、見知らぬクラスのモデルの事前トレーニングを行い、見つからないクラスのモデルのパフォーマンスを評価する。
トレーニング不要なFew-shot 3D netwrok,3D,さらにトレーニングベースの変種である3DTを提案する。
実験では、S3DISとScanNetで従来の最先端手法を+6.93%、+17.96%のmIoUで改善し、トレーニング時間を-90%短縮した。
論文 参考訳(メタデータ) (2023-08-24T17:58:03Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。