論文の概要: Exploring Data-Efficient 3D Scene Understanding with Contrastive Scene
Contexts
- arxiv url: http://arxiv.org/abs/2012.09165v1
- Date: Wed, 16 Dec 2020 18:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:54:39.047164
- Title: Exploring Data-Efficient 3D Scene Understanding with Contrastive Scene
Contexts
- Title(参考訳): コントラスト的シーンコンテキストを用いたデータ効率のよい3次元シーン理解の探索
- Authors: Ji Hou, Benjamin Graham, Matthias Nie{\ss}ner, Saining Xie
- Abstract要約: Contrastive Scene Contextsは、シーン内のポイントレベルの対応と空間コンテキストの両方を利用する3Dプリトレーニング方法です。
3次元点雲の徹底的なラベリングは不要である可能性が示唆された。
ScanNetでは、ポイントラベルの0.1%を使用しても、完全なアノテーションを使用するベースラインパフォーマンスの89%(インスタンスセグメンテーション)と96%(セグメンテーション)を達成しています。
- 参考スコア(独自算出の注目度): 21.201984953068614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress in 3D scene understanding has come with growing demand for
data; however, collecting and annotating 3D scenes (e.g. point clouds) are
notoriously hard. For example, the number of scenes (e.g. indoor rooms) that
can be accessed and scanned might be limited; even given sufficient data,
acquiring 3D labels (e.g. instance masks) requires intensive human labor. In
this paper, we explore data-efficient learning for 3D point cloud. As a first
step towards this direction, we propose Contrastive Scene Contexts, a 3D
pre-training method that makes use of both point-level correspondences and
spatial contexts in a scene. Our method achieves state-of-the-art results on a
suite of benchmarks where training data or labels are scarce. Our study reveals
that exhaustive labelling of 3D point clouds might be unnecessary; and
remarkably, on ScanNet, even using 0.1% of point labels, we still achieve 89%
(instance segmentation) and 96% (semantic segmentation) of the baseline
performance that uses full annotations.
- Abstract(参考訳): 3Dシーン理解の急速な進歩は、データに対する需要の高まりとともにいるが、3Dシーンの収集や注釈付け(例)は行われている。
点雲)は難しいことで悪名高い。
例えばシーン数(例:シーン数)。
屋内の部屋)は、アクセスやスキャンが可能で、十分なデータさえあれば、3dラベル(例えば、3dラベル)を取得することができる。
仮面) 集中労働を必要とする。
本稿では,3Dポイントクラウドのためのデータ効率学習について検討する。
この方向への第一歩として,シーン内の点レベル対応と空間コンテキストの両方を利用する3次元事前学習手法であるContrastive Scene Contextsを提案する。
本手法は,トレーニングデータやラベルが不足しているベンチマークの組において,最先端の結果を得る。
注目すべきことに、scannetでは、0.1%のポイントラベルを使用しても、完全なアノテーションを使用するベースラインのパフォーマンスの89%(インスタンスセグメンテーション)と96%(セマンティックセグメンテーション)を達成しています。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation [19.706172244951116]
本稿では,U3DS$3$について,総合的な3Dシーンに対して,完全に教師なしのポイントクラウドセグメンテーションに向けたステップとして提示する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づいてスーパーポイントを生成することである。
次に、空間クラスタリングに基づく手法を用いて学習プロセスを行い、次いで、クラスタセントロイドに応じて生成された擬似ラベルを用いて反復的なトレーニングを行う。
論文 参考訳(メタデータ) (2023-11-10T12:05:35Z) - SGRec3D: Self-Supervised 3D Scene Graph Learning via Object-Level Scene
Reconstruction [16.643252717745348]
本稿では,3次元シーングラフ予測のための自己教師付き事前学習手法であるSGRec3Dを提案する。
事前トレーニングを行うSGRec3Dはオブジェクト関係ラベルを必要としないため、大規模な3Dシーン理解データセットを活用できる。
我々の実験は,最近のクラウドベースの事前学習手法とは対照的に,提案した事前学習は3次元シーングラフの予測を大幅に改善することを示した。
論文 参考訳(メタデータ) (2023-09-27T14:45:29Z) - Lowis3D: Language-Driven Open-World Instance-Level 3D Scene
Understanding [57.47315482494805]
オープンワールドのインスタンスレベルのシーン理解は、アノテーション付きデータセットに存在しない未知のオブジェクトカテゴリを特定し、認識することを目的としている。
モデルは新しい3Dオブジェクトをローカライズし、それらのセマンティックなカテゴリを推論する必要があるため、この課題は難しい。
本稿では,3Dシーンのキャプションを生成するために,画像テキストペアからの広範な知識を符号化する,事前学習型視覚言語基盤モデルを提案する。
論文 参考訳(メタデータ) (2023-08-01T07:50:14Z) - OpenScene: 3D Scene Understanding with Open Vocabularies [73.1411930820683]
従来の3Dシーン理解アプローチは、単一のタスクのためにモデルをトレーニングするためのラベル付き3Dデータセットに依存している。
私たちは,CLIP機能空間にテキストと画像ピクセルを埋め込んだ3次元シーンポイントの高密度な特徴をモデルが予測する代替手法OpenSceneを提案する。
このゼロショットアプローチは、タスク非依存のトレーニングとオープン語彙クエリを可能にする。
論文 参考訳(メタデータ) (2022-11-28T18:58:36Z) - Interactive Object Segmentation in 3D Point Clouds [27.88495480980352]
本稿では,ユーザが直接3Dポイントクラウドと対話する対話型3Dオブジェクトセグメンテーション手法を提案する。
私たちのモデルは、ターゲットドメインからのトレーニングデータを必要としない。
異なるデータ特性と異なるオブジェクトクラスを持つ他のいくつかのデータセットでうまく機能する。
論文 参考訳(メタデータ) (2022-04-14T18:31:59Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z) - Multi-Path Region Mining For Weakly Supervised 3D Semantic Segmentation
on Point Clouds [67.0904905172941]
本稿では,3次元点雲上の弱ラベルを用いた点レベルの予測のための弱教師付きアプローチを提案する。
私たちの知る限りでは、これは、クラウドレベルの弱いラベルを生の3D空間で使用して、ポイントクラウドセマンティックセグメンテーションネットワークをトレーニングする最初の方法です。
論文 参考訳(メタデータ) (2020-03-29T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。