論文の概要: Scan2Part: Fine-grained and Hierarchical Part-level Understanding of
Real-World 3D Scans
- arxiv url: http://arxiv.org/abs/2206.02366v1
- Date: Mon, 6 Jun 2022 05:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:14:08.857431
- Title: Scan2Part: Fine-grained and Hierarchical Part-level Understanding of
Real-World 3D Scans
- Title(参考訳): Scan2Part: 現実世界の3Dスキャンの微細で階層的な部分レベルの理解
- Authors: Alexandr Notchenko, Vladislav Ishimtsev, Alexey Artemov, Vadim
Selyutin, Emil Bogomolov, Evgeny Burnaev
- Abstract要約: 本研究では,実世界の雑音の多い屋内RGB-Dスキャンにおいて,オブジェクトの個々の部分を分割するScan2Partを提案する。
基礎となる3Dスキャン幾何の微細な詳細をキャプチャする、スパースなU-Netベースのアーキテクチャを用いています。
出力として、幾何が粗い、あるいは部分的に欠落している場合でも、オブジェクトごとの細かいラベルを予測できる。
- 参考スコア(独自算出の注目度): 68.98085986594411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Scan2Part, a method to segment individual parts of objects in
real-world, noisy indoor RGB-D scans. To this end, we vary the part hierarchies
of objects in indoor scenes and explore their effect on scene understanding
models. Specifically, we use a sparse U-Net-based architecture that captures
the fine-scale detail of the underlying 3D scan geometry by leveraging a
multi-scale feature hierarchy. In order to train our method, we introduce the
Scan2Part dataset, which is the first large-scale collection providing detailed
semantic labels at the part level in the real-world setting. In total, we
provide 242,081 correspondences between 53,618 PartNet parts of 2,477 ShapeNet
objects and 1,506 ScanNet scenes, at two spatial resolutions of 2 cm$^3$ and 5
cm$^3$. As output, we are able to predict fine-grained per-object part labels,
even when the geometry is coarse or partially missing.
- Abstract(参考訳): 本研究では,実世界の室内rgb-dスキャンにおいて,物体の個々の部分を分割するscan2partを提案する。
この目的のために,屋内場面における物体の階層構造を変化させ,シーン理解モデルへの影響を探る。
具体的には、マルチスケールの特徴階層を利用して、基礎となる3Dスキャン幾何学の微細な詳細をキャプチャするスパースなU-Netアーキテクチャを用いる。
本手法をトレーニングするために,実世界のパートレベルで詳細なセマンティックラベルを提供する,最初の大規模コレクションであるScan2Partデータセットを導入した。
2,477のShapeNetオブジェクトと1,506のScanNetシーンの53,618のPartNet部分間の合計242,081の対応を2 cm$^3$と5 cm$^3$の空間解像度で提供する。
出力として、幾何が粗いか部分的に欠落している場合でも、オブジェクトごとの細かいラベルを予測できる。
関連論文リスト
- Part2Object: Hierarchical Unsupervised 3D Instance Segmentation [31.44173252707684]
教師なしの3Dインスタンスセグメンテーションは、アノテーションなしで3Dポイントクラウドからオブジェクトをセグメントすることを目的としている。
Part2Objectは、ポイントからオブジェクトの部分やオブジェクトへの多層クラスタリングを採用しており、任意のレイヤでオブジェクトが表現できる。
階層型3Dオブジェクト部分とインスタンスセグメンテーションをサポートするHi-Mask3Dを提案する。
論文 参考訳(メタデータ) (2024-07-14T05:18:15Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Neural Part Priors: Learning to Optimize Part-Based Object Completion in
RGB-D Scans [27.377128012679076]
本稿では,部分情報付き3次元形状の大規模合成データセットを活用してニューラル部品の先行学習を提案する。
実世界でスキャンされた3Dシーンをテスト時に適合させるために、学習した部分を最適化できます。
ScanNetデータセットの実験では、NPPは部分分解とオブジェクト補完において、技術の状態を大幅に上回っている。
論文 参考訳(メタデータ) (2022-03-17T15:05:44Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Scan2Cap: Context-aware Dense Captioning in RGB-D Scans [10.688467522949082]
本稿では,コモディティRGB-Dセンサを用いた3Dスキャンにおける高密度キャプションの課題について紹介する。
入力シーン内のオブジェクトを検出し,それらを自然言語で記述する,エンドツーエンドのトレーニング手法であるScan2Capを提案する。
ScanReferデータセットから3Dオブジェクトを効果的にローカライズし,記述することができる。
論文 参考訳(メタデータ) (2020-12-03T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。