論文の概要: Few-shot Class-incremental Learning for 3D Point Cloud Objects
- arxiv url: http://arxiv.org/abs/2205.15225v1
- Date: Mon, 30 May 2022 16:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 19:06:26.201319
- Title: Few-shot Class-incremental Learning for 3D Point Cloud Objects
- Title(参考訳): 3dポイントクラウドオブジェクトのためのマイナショットクラスインクリメンタル学習
- Authors: Townim Chowdhury, Ali Cheraghian, Sameera Ramasinghe, Sahar Ahmadi,
Morteza Saberi, Shafin Rahman
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、新しいクラスのセットのためにベースクラスでトレーニングされたモデルを段階的に微調整することを目的としている。
FSCILの最近の取り組みは、主に2次元画像データに基づいてこの問題に対処している。
カメラ技術の進歩により、3Dポイントのクラウドデータがこれまで以上に利用できるようになった。
- 参考スコア(独自算出の注目度): 11.267975876074706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to incrementally fine-tune a
model trained on base classes for a novel set of classes using a few examples
without forgetting the previous training. Recent efforts of FSCIL address this
problem primarily on 2D image data. However, due to the advancement of camera
technology, 3D point cloud data has become more available than ever, which
warrants considering FSCIL on 3D data. In this paper, we address FSCIL in the
3D domain. In addition to well-known problems of catastrophic forgetting of
past knowledge and overfitting of few-shot data, 3D FSCIL can bring newer
challenges. For example, base classes may contain many synthetic instances in a
realistic scenario. In contrast, only a few real-scanned samples (from RGBD
sensors) of novel classes are available in incremental steps. Due to the data
variation from synthetic to real, FSCIL endures additional challenges,
degrading performance in later incremental steps. We attempt to solve this
problem by using Microshapes (orthogonal basis vectors) describing any 3D
objects using a pre-defined set of rules. It supports incremental training with
few-shot examples minimizing synthetic to real data variation. We propose new
test protocols for 3D FSCIL using popular synthetic datasets, ModelNet and
ShapeNet, and 3D real-scanned datasets, ScanObjectNN, and Common Objects in 3D
(CO3D). By comparing state-of-the-art methods, we establish the effectiveness
of our approach in the 3D domain.
- Abstract(参考訳): few-shot class-incremental learning (fscil) は、新しいクラスのベースクラスでトレーニングされたモデルを、いくつかの例を使って段階的に微調整することを目的としている。
FSCILの最近の取り組みは、主に2次元画像データに基づいてこの問題に対処している。
しかし、カメラ技術の進歩により、3dポイントのクラウドデータがこれまで以上に利用可能になったため、fscilは3dデータについて検討されている。
本稿では,FSCILを3次元領域で処理する。
3D FSCILは、過去の知識の破滅的な忘れと数ショットデータの過度な適合という、よく知られた問題に加えて、より新しい課題をもたらす。
例えば、ベースクラスは現実的なシナリオで多くの合成インスタンスを含むことができる。
対照的に、新しいクラスの実際のスキャンされたサンプル(rgbdセンサーからの)は、段階的なステップで利用可能である。
合成から現実へのデータのバリエーションのため、FSCILはさらなる課題に耐え、後続のステップでパフォーマンスを低下させる。
我々は、あらかじめ定義されたルールセットを用いて、任意の3次元オブジェクトを記述するマイクロサップ(直交基底ベクトル)を用いてこの問題を解決する。
合成データから実データへのばらつきを最小限にした、数ショットの例でインクリメンタルトレーニングをサポートする。
一般的な合成データセットであるModelNetとShapeNetと3D実スキャンデータセットであるScanObjectNNとCommon Objects in 3D(CO3D)を用いた3D FSCILの新しいテストプロトコルを提案する。
最先端手法を比較することで,3次元領域におけるアプローチの有効性を確立する。
関連論文リスト
- P3P: Pseudo-3D Pre-training for Scaling 3D Masked Autoencoders [32.85484320025852]
本研究では,画像から持ち上げた実データと擬似3Dデータを利用した自己教師付き事前学習フレームワークを,大深度推定モデルにより提案する。
提案手法は,3次元分類および少数ショット学習における最先端性能を高い事前学習と下流微調整効率を維持しながら達成する。
論文 参考訳(メタデータ) (2024-08-19T13:59:53Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with
Pre-trained Vision-Language Models [62.663113296987085]
クラス増分学習(class-incremental learning)は、モデルが限られたデータに基づいて漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
冗長特徴除去器(RFE)と空間ノイズ補償器(SNC)の2つの新しいコンポーネントを紹介する。
既存の3次元データセットの不均衡を考慮し、3次元FSCILモデルのより微妙な評価を提供する新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。