論文の概要: Geodesic-Former: a Geodesic-Guided Few-shot 3D Point Cloud Instance
Segmenter
- arxiv url: http://arxiv.org/abs/2207.10859v1
- Date: Fri, 22 Jul 2022 03:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 13:03:45.803935
- Title: Geodesic-Former: a Geodesic-Guided Few-shot 3D Point Cloud Instance
Segmenter
- Title(参考訳): geodesic-former:ジオデシックガイドによる3dポイントクラウドインスタンスセグメンタ
- Authors: Tuan Ngo and Khoi Nguyen
- Abstract要約: 3Dポイントクラウドインスタンスセグメンテーションのための最初のジオデシック誘導変換器であるGeodesic-Formerを紹介する。
鍵となる考え方は、測地線距離を利用して、LiDAR 3D点雲の密度不均衡に取り組むことである。
新しいタスクでGeodesic-Formerを評価するために、ScannetV2とS3DISという2つの一般的な3Dポイントクラウドインスタンスセグメンテーションデータセットの分割を提案する。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new problem in 3D point cloud: few-shot instance
segmentation. Given a few annotated point clouds exemplified a target class,
our goal is to segment all instances of this target class in a query point
cloud. This problem has a wide range of practical applications where point-wise
instance segmentation annotation is prohibitively expensive to collect. To
address this problem, we present Geodesic-Former -- the first geodesic-guided
transformer for 3D point cloud instance segmentation. The key idea is to
leverage the geodesic distance to tackle the density imbalance of LiDAR 3D
point clouds. The LiDAR 3D point clouds are dense near the object surface and
sparse or empty elsewhere making the Euclidean distance less effective to
distinguish different objects. The geodesic distance, on the other hand, is
more suitable since it encodes the scene's geometry which can be used as a
guiding signal for the attention mechanism in a transformer decoder to generate
kernels representing distinct features of instances. These kernels are then
used in a dynamic convolution to obtain the final instance masks. To evaluate
Geodesic-Former on the new task, we propose new splits of the two common 3D
point cloud instance segmentation datasets: ScannetV2 and S3DIS.
Geodesic-Former consistently outperforms strong baselines adapted from
state-of-the-art 3D point cloud instance segmentation approaches with a
significant margin. Code is available at
https://github.com/VinAIResearch/GeoFormer.
- Abstract(参考訳): 本稿では3Dポイントクラウドにおける新しい問題を紹介する。
ターゲットクラスを例示するいくつかの注釈付きポイントクラウドを考えると、このターゲットクラスのすべてのインスタンスをクエリポイントクラウドに分割することが目標です。
この問題には、ポイントワイズインスタンスセグメンテーションアノテーションが収集に極めて高価である幅広い実用的応用がある。
この問題を解決するために、geodesic-former - 3d point cloudインスタンスセグメンテーションのための最初の測地線ガイドトランスフォーマを提案する。
鍵となる考え方は、測地線距離を利用して、LiDAR 3D点雲の密度不均衡に取り組むことである。
LiDAR 3Dポイントの雲は、物体表面の近くに密集しており、ユークリッド距離が異なる物体を区別する効果を弱めている。
一方、測地距離は、トランスフォーマデコーダの注意機構の誘導信号として使用できるシーンの幾何学を符号化し、インスタンスの異なる特徴を表すカーネルを生成するため、より適している。
これらのカーネルは、最終的なインスタンスマスクを得るために動的畳み込みで使用される。
新しいタスクでジオデシックフォーマを評価するために、scannetv2とs3disという2つの一般的な3dポイントクラウドインスタンスセグメンテーションデータセットの新しい分割を提案する。
geodesic-formerは、最先端の3dポイントクラウドインスタンスセグメンテーションアプローチに適応した強力なベースラインを一貫して上回っている。
コードはhttps://github.com/vinairesearch/geoformerで入手できる。
関連論文リスト
- Open3DIS: Open-Vocabulary 3D Instance Segmentation with 2D Mask Guidance [49.14140194332482]
Open3DISは3Dシーン内でのOpen-Vocabulary Instanceの問題に対処するために設計された新しいソリューションである。
3D環境内のオブジェクトは、さまざまな形状、スケール、色を示し、正確なインスタンスレベルの識別が困難なタスクとなる。
論文 参考訳(メタデータ) (2023-12-17T10:07:03Z) - U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation [19.706172244951116]
本稿では,U3DS$3$について,総合的な3Dシーンに対して,完全に教師なしのポイントクラウドセグメンテーションに向けたステップとして提示する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づいてスーパーポイントを生成することである。
次に、空間クラスタリングに基づく手法を用いて学習プロセスを行い、次いで、クラスタセントロイドに応じて生成された擬似ラベルを用いて反復的なトレーニングを行う。
論文 参考訳(メタデータ) (2023-11-10T12:05:35Z) - Generalized Few-Shot Point Cloud Segmentation Via Geometric Words [54.32239996417363]
ショットポイントクラウドセグメンテーションアルゴリズムは、ベースクラスのセグメンテーション精度を犠牲にして、新しいクラスに適応するように学習する。
一般化された数ショット点雲のセグメンテーションというより実践的なパラダイムの最初の試みを示す。
基本クラスと新規クラス間で共有される幾何学的要素を表す幾何学的単語を提案し,それらを新しい幾何学的意味表現に組み込む。
論文 参考訳(メタデータ) (2023-09-20T11:24:33Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Prototype Adaption and Projection for Few- and Zero-shot 3D Point Cloud
Semantic Segmentation [30.18333233940194]
本研究は, 少数ショットとゼロショットの3Dポイントクラウドセマンティックセマンティックセグメンテーションの課題に対処する。
提案手法は,S3DISベンチマークとScanNetベンチマークの2方向1ショット設定により,最先端のアルゴリズムを約7.90%,14.82%上回る。
論文 参考訳(メタデータ) (2023-05-23T17:58:05Z) - GeoSegNet: Point Cloud Semantic Segmentation via Geometric
Encoder-Decoder Modeling [39.35429984469557]
我々はGeoSegNetと呼ばれるロバストなセマンティックセマンティックセマンティクスネットワークを提案する。
我々のGeoSegNetはマルチジオメトリベースのエンコーダと境界誘導デコーダで構成されている。
実験により,提案手法の精度と対象境界の明瞭度を比較検討し,提案手法を比較検討した。
論文 参考訳(メタデータ) (2022-07-14T09:24:05Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - SCSS-Net: Superpoint Constrained Semi-supervised Segmentation Network
for 3D Indoor Scenes [6.3364439467281315]
本稿では,SCSS-Net という名称の3次元点雲に対するスーパーポイント制約付き半教師付きセグメンテーションネットワークを提案する。
具体的には、ラベルのない点群から予測される擬似ラベルを自己学習に利用し、幾何ベースおよび色に基づく領域成長アルゴリズムによって生成されたスーパーポイントを組み合わせて、疑似ラベルを低信頼で修正・削除する。
論文 参考訳(メタデータ) (2021-07-08T04:43:21Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。