論文の概要: Scan2Part: Fine-grained and Hierarchical Part-level Understanding of
Real-World 3D Scans
- arxiv url: http://arxiv.org/abs/2206.02366v1
- Date: Mon, 6 Jun 2022 05:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:14:08.857431
- Title: Scan2Part: Fine-grained and Hierarchical Part-level Understanding of
Real-World 3D Scans
- Title(参考訳): Scan2Part: 現実世界の3Dスキャンの微細で階層的な部分レベルの理解
- Authors: Alexandr Notchenko, Vladislav Ishimtsev, Alexey Artemov, Vadim
Selyutin, Emil Bogomolov, Evgeny Burnaev
- Abstract要約: 本研究では,実世界の雑音の多い屋内RGB-Dスキャンにおいて,オブジェクトの個々の部分を分割するScan2Partを提案する。
基礎となる3Dスキャン幾何の微細な詳細をキャプチャする、スパースなU-Netベースのアーキテクチャを用いています。
出力として、幾何が粗い、あるいは部分的に欠落している場合でも、オブジェクトごとの細かいラベルを予測できる。
- 参考スコア(独自算出の注目度): 68.98085986594411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Scan2Part, a method to segment individual parts of objects in
real-world, noisy indoor RGB-D scans. To this end, we vary the part hierarchies
of objects in indoor scenes and explore their effect on scene understanding
models. Specifically, we use a sparse U-Net-based architecture that captures
the fine-scale detail of the underlying 3D scan geometry by leveraging a
multi-scale feature hierarchy. In order to train our method, we introduce the
Scan2Part dataset, which is the first large-scale collection providing detailed
semantic labels at the part level in the real-world setting. In total, we
provide 242,081 correspondences between 53,618 PartNet parts of 2,477 ShapeNet
objects and 1,506 ScanNet scenes, at two spatial resolutions of 2 cm$^3$ and 5
cm$^3$. As output, we are able to predict fine-grained per-object part labels,
even when the geometry is coarse or partially missing.
- Abstract(参考訳): 本研究では,実世界の室内rgb-dスキャンにおいて,物体の個々の部分を分割するscan2partを提案する。
この目的のために,屋内場面における物体の階層構造を変化させ,シーン理解モデルへの影響を探る。
具体的には、マルチスケールの特徴階層を利用して、基礎となる3Dスキャン幾何学の微細な詳細をキャプチャするスパースなU-Netアーキテクチャを用いる。
本手法をトレーニングするために,実世界のパートレベルで詳細なセマンティックラベルを提供する,最初の大規模コレクションであるScan2Partデータセットを導入した。
2,477のShapeNetオブジェクトと1,506のScanNetシーンの53,618のPartNet部分間の合計242,081の対応を2 cm$^3$と5 cm$^3$の空間解像度で提供する。
出力として、幾何が粗いか部分的に欠落している場合でも、オブジェクトごとの細かいラベルを予測できる。
関連論文リスト
- 3DCoMPaT200: Language-Grounded Compositional Understanding of Parts and Materials of 3D Shapes [29.8054021078428]
3DCoMPaT200は、対象部品や材料の構成的理解に適した大規模なデータセットである。
これは、$approx$5のオブジェクト語彙を持つ200のオブジェクトカテゴリを、3DCoMPaTや$approx$4の大きい部分カテゴリと比較する。
合成3次元モデリングの複雑さに対処するために,合成部品形状検索の新しい課題を提案する。
論文 参考訳(メタデータ) (2025-01-12T11:46:07Z) - 3D Part Segmentation via Geometric Aggregation of 2D Visual Features [57.20161517451834]
監督された3D部分分割モデルは、固定されたオブジェクトと部品のセットに合わせて調整されており、それらの転送可能性は、オープンセットの現実世界のシナリオに制限される。
近年、視覚言語モデル(VLM)を多視点レンダリングとテキストプロンプトを用いてオブジェクト部品の識別に活用する研究が進められている。
これらの制約に対処するために,視覚概念から抽出した意味論と3次元幾何学をブレンドし,対象部品を効果的に同定するCOPSを提案する。
論文 参考訳(メタデータ) (2024-12-05T15:27:58Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - Neural Part Priors: Learning to Optimize Part-Based Object Completion in
RGB-D Scans [27.377128012679076]
本稿では,部分情報付き3次元形状の大規模合成データセットを活用してニューラル部品の先行学習を提案する。
実世界でスキャンされた3Dシーンをテスト時に適合させるために、学習した部分を最適化できます。
ScanNetデータセットの実験では、NPPは部分分解とオブジェクト補完において、技術の状態を大幅に上回っている。
論文 参考訳(メタデータ) (2022-03-17T15:05:44Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Scan2Cap: Context-aware Dense Captioning in RGB-D Scans [10.688467522949082]
本稿では,コモディティRGB-Dセンサを用いた3Dスキャンにおける高密度キャプションの課題について紹介する。
入力シーン内のオブジェクトを検出し,それらを自然言語で記述する,エンドツーエンドのトレーニング手法であるScan2Capを提案する。
ScanReferデータセットから3Dオブジェクトを効果的にローカライズし,記述することができる。
論文 参考訳(メタデータ) (2020-12-03T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。