論文の概要: Interactive Object Segmentation in 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2204.07183v1
- Date: Thu, 14 Apr 2022 18:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 03:15:03.810787
- Title: Interactive Object Segmentation in 3D Point Clouds
- Title(参考訳): 3次元点雲における対話型物体分割
- Authors: Theodora Kontogianni, Ekin Celikkan, Siyu Tang and Konrad Schindler
- Abstract要約: 本稿では,ユーザが直接3Dポイントクラウドと対話する対話型3Dオブジェクトセグメンテーション手法を提案する。
私たちのモデルは、ターゲットドメインからのトレーニングデータを必要としない。
異なるデータ特性と異なるオブジェクトクラスを持つ他のいくつかのデータセットでうまく機能する。
- 参考スコア(独自算出の注目度): 27.88495480980352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning depends on large amounts of labeled training data. Manual
labeling is expensive and represents a bottleneck, especially for tasks such as
segmentation, where labels must be assigned down to the level of individual
points. That challenge is even more daunting for 3D data: 3D point clouds
contain millions of points per scene, and their accurate annotation is markedly
more time-consuming. The situation is further aggravated by the added
complexity of user interfaces for 3D point clouds, which slows down annotation
even more. For the case of 2D image segmentation, interactive techniques have
become common, where user feedback in the form of a few clicks guides a
segmentation algorithm -- nowadays usually a neural network -- to achieve an
accurate labeling with minimal effort. Surprisingly, interactive segmentation
of 3D scenes has not been explored much. Previous work has attempted to obtain
accurate 3D segmentation masks using human feedback from the 2D domain, which
is only possible if correctly aligned images are available together with the 3D
point cloud, and it involves switching between the 2D and 3D domains. Here, we
present an interactive 3D object segmentation method in which the user
interacts directly with the 3D point cloud. Importantly, our model does not
require training data from the target domain: when trained on ScanNet, it
performs well on several other datasets with different data characteristics as
well as different object classes. Moreover, our method is orthogonal to
supervised (instance) segmentation methods and can be combined with them to
refine automatic segmentations with minimal human effort.
- Abstract(参考訳): ディープラーニングは大量のラベル付きトレーニングデータに依存する。
手動ラベリングは高価であり、特に個別のポイントのレベルまでラベルを割り当てなければならないセグメンテーションのようなタスクではボトルネックとなる。
3Dポイントのクラウドはシーンごとに何百万ポイントものポイントを持ち、それらの正確なアノテーションは明らかに時間を要する。
この状況はさらに悪化し、3dポイントクラウドのユーザインターフェースの複雑さが増し、アノテーションがさらに遅くなっている。
2Dイメージセグメンテーションの場合、対話的なテクニックが一般的になり、数クリックの形式でユーザのフィードバックがセグメンテーションアルゴリズム(通常はニューラルネットワーク)をガイドして、最小限の労力で正確なラベリングを実現する。
驚くべきことに、3Dシーンのインタラクティブなセグメンテーションはあまり研究されていない。
従来,2D領域からの人間のフィードバックによる正確な3Dセグメンテーションマスクの取得を試みたが,これは3Dポイントクラウドと正しく整列された画像が同時に利用できる場合にのみ可能であり,2Dドメインと3Dドメインの切り替えを伴う。
本稿では,ユーザが直接3Dポイントクラウドと対話する対話型3Dオブジェクトセグメンテーション手法を提案する。
私たちのモデルは、ターゲットドメインからのトレーニングデータを必要としない。ScanNetでトレーニングすると、異なるデータ特性と異なるオブジェクトクラスを持つ他のいくつかのデータセットでうまく機能します。
さらに,提案手法は教師付き(インスタンス)セグメンテーション法と直交し,それらと組み合わせることで,最小限の人間の努力で自動セグメンテーションを洗練することができる。
関連論文リスト
- Segment3D: Learning Fine-Grained Class-Agnostic 3D Segmentation without
Manual Labels [141.23836433191624]
現在の3Dシーンセグメンテーション手法は、手動で注釈付けされた3Dトレーニングデータセットに大きく依存している。
高品質な3Dセグメンテーションマスクを生成するクラス非依存の3Dシーンセグメンテーション法であるSegment3Dを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:57:11Z) - SAM-guided Graph Cut for 3D Instance Segmentation [60.75119991853605]
本稿では,3次元画像情報と多視点画像情報の同時利用による3次元インスタンス分割の課題に対処する。
本稿では,3次元インスタンスセグメンテーションのための2次元セグメンテーションモデルを効果的に活用する新しい3D-to-2Dクエリフレームワークを提案する。
本手法は,ロバストなセグメンテーション性能を実現し,異なるタイプのシーンにまたがる一般化を実現する。
論文 参考訳(メタデータ) (2023-12-13T18:59:58Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - PartSLIP: Low-Shot Part Segmentation for 3D Point Clouds via Pretrained
Image-Language Models [56.324516906160234]
一般化可能な3D部分分割は重要だが、ビジョンとロボティクスでは難しい。
本稿では,事前学習した画像言語モデルGLIPを利用して,3次元点雲の低ショット部分分割法を提案する。
我々は2Dから3Dへの豊富な知識を、ポイントクラウドレンダリングにおけるGLIPに基づく部分検出と新しい2D-to-3Dラベルリフトアルゴリズムにより転送する。
論文 参考訳(メタデータ) (2022-12-03T06:59:01Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - Semi-supervised 3D shape segmentation with multilevel consistency and
part substitution [21.075426681857024]
本稿では,ラベル付3次元形状とラベル付3次元データの量から3次元分割を効果的に学習するための半教師付き手法を提案する。
ラベルのないデータに対して,3次元形状の摂動コピー間のネットワーク予測の整合性を確保するために,新しい多レベル整合性損失を提案する。
ラベル付きデータに対して,より構造的な変化を伴ってラベル付き3次元形状を増強し,トレーニングを強化するシンプルな部分置換法を開発した。
論文 参考訳(メタデータ) (2022-04-19T11:48:24Z) - Learning 3D Semantic Segmentation with only 2D Image Supervision [18.785840615548473]
多視点融合を用いた2次元意味画像分割から派生した擬似ラベルから3次元モデルを訓練する。
提案するネットワークアーキテクチャである2D3DNetは,5大陸20都市で撮影されたライダーと画像を備えた新しい都市データセットの実験において,ベースラインよりもはるかに優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-10-21T17:56:28Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。