論文の概要: GrabS: Generative Embodied Agent for 3D Object Segmentation without Scene Supervision
- arxiv url: http://arxiv.org/abs/2504.11754v1
- Date: Wed, 16 Apr 2025 04:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:49.171474
- Title: GrabS: Generative Embodied Agent for 3D Object Segmentation without Scene Supervision
- Title(参考訳): GrabS: シーン・スーパービジョンを伴わない3次元オブジェクトセグメンテーションのための生成的エボダイド・エージェント
- Authors: Zihui Zhang, Yafei Yang, Hongtao Wen, Bo Yang,
- Abstract要約: 複雑な点雲における3次元物体のセグメンテーションの難しさについて,人間の3次元シーンのラベルを監督のために必要とせずに検討した。
事前訓練された2D特徴の類似性や3Dポイントをオブジェクトとしてグループ化する動きなどの外部信号に頼ることで、既存の教師なし手法は車のような単純な物体を識別することに限定される。
- 参考スコア(独自算出の注目度): 7.511342491529451
- License:
- Abstract: We study the hard problem of 3D object segmentation in complex point clouds without requiring human labels of 3D scenes for supervision. By relying on the similarity of pretrained 2D features or external signals such as motion to group 3D points as objects, existing unsupervised methods are usually limited to identifying simple objects like cars or their segmented objects are often inferior due to the lack of objectness in pretrained features. In this paper, we propose a new two-stage pipeline called GrabS. The core concept of our method is to learn generative and discriminative object-centric priors as a foundation from object datasets in the first stage, and then design an embodied agent to learn to discover multiple objects by querying against the pretrained generative priors in the second stage. We extensively evaluate our method on two real-world datasets and a newly created synthetic dataset, demonstrating remarkable segmentation performance, clearly surpassing all existing unsupervised methods.
- Abstract(参考訳): 複雑な点雲における3次元物体のセグメンテーションの難しさについて,人間の3次元シーンのラベルを監督のために必要とせずに検討した。
事前訓練された2D特徴の類似性や3Dポイントをオブジェクトとしてグループ化する動きなどの外部信号に頼ることで、既存の教師なし手法は車のような単純な物体を識別することに限定される。
本稿では,GrabSと呼ばれる新しい2段階パイプラインを提案する。
本手法の中核となる概念は,第1段階のオブジェクトデータセットから生成的および識別的対象中心の先行を基礎として学習し,第2段階の事前学習により,複数の対象の発見を学習するための具体的エージェントを設計することである。
実世界の2つのデータセットと新たに作成された合成データセットに対して,本手法を広範囲に評価し,既存のすべての教師なし手法を明らかに上回る,顕著なセグメンテーション性能を示した。
関連論文リスト
- DORec: Decomposed Object Reconstruction and Segmentation Utilizing 2D Self-Supervised Features [33.04128557550782]
ニューラル暗黙表現に基づく分解対象再構成ネットワークを提案する。
私たちのキーとなるアイデアは、2次元の自己監督機能を使って、前景領域の2次元マスクと、意味的に類似した領域のKクラスターマスクという2つのレベルのマスクを作成することです。
異なるデータセットに対する実験結果は、ポーズ推定などの下流タスクを可能にする様々な背景から、DORecが様々な前景オブジェクトのセグメンテーションと再構成に優れていることを示している。
論文 参考訳(メタデータ) (2023-10-17T09:21:29Z) - PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.493213289990962]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - OGC: Unsupervised 3D Object Segmentation from Rigid Dynamics of Point
Clouds [4.709764624933227]
OGCと呼ばれる最初の教師なしの手法を提案し、同時に複数の3Dオブジェクトを1つの前方通過で識別する。
提案手法を5つのデータセット上で広範囲に評価し,オブジェクト部分のインスタンスセグメンテーションにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-10T07:01:08Z) - PartAfford: Part-level Affordance Discovery from 3D Objects [113.91774531972855]
パートレベルの空き地探索(PartAfford)の課題について紹介する。
対象物当たりの空きラベルのみを考慮し、(i)3D形状を部品に分解し、(ii)各部品が特定の空きカテゴリに対応する方法を検出する。
本稿では,パーセンテージ・セットの監督と幾何学的原始正規化のみを活用することで,パートレベルの表現を発見する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:36Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Unsupervised Object Detection with LiDAR Clues [70.73881791310495]
本稿では,LiDARの手がかりを用いた非教師対象検出のための最初の実用的手法を提案する。
提案手法では,まず3次元点雲に基づく候補オブジェクトセグメントを生成する。
そして、セグメントラベルを割り当て、セグメントラベルネットワークを訓練する反復的なセグメントラベル処理を行う。
ラベル付けプロセスは、長い尾とオープンエンドの分布の問題を軽減するために慎重に設計されている。
論文 参考訳(メタデータ) (2020-11-25T18:59:54Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。