論文の概要: Cross-Shape Attention for Part Segmentation of 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2003.09053v6
- Date: Wed, 5 Jul 2023 16:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 01:03:38.393893
- Title: Cross-Shape Attention for Part Segmentation of 3D Point Clouds
- Title(参考訳): 3次元点雲の部分分割に対するクロスシェイプ注意
- Authors: Marios Loizou, Siddhant Garg, Dmitry Petrov, Melinos Averkiou,
Evangelos Kalogerakis
- Abstract要約: 本稿では,形状のポイントワイド特徴と他の形状との相互作用を可能にするために,断面アテンション機構を提案する。
このメカニズムは点間の相互作用の度合いを評価し、また形状間の特徴伝播を仲介する。
我々のアプローチは、人気の高いPartNetデータセットに最先端の結果をもたらす。
- 参考スコア(独自算出の注目度): 11.437076464287822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a deep learning method that propagates point-wise feature
representations across shapes within a collection for the purpose of 3D shape
segmentation. We propose a cross-shape attention mechanism to enable
interactions between a shape's point-wise features and those of other shapes.
The mechanism assesses both the degree of interaction between points and also
mediates feature propagation across shapes, improving the accuracy and
consistency of the resulting point-wise feature representations for shape
segmentation. Our method also proposes a shape retrieval measure to select
suitable shapes for cross-shape attention operations for each test shape. Our
experiments demonstrate that our approach yields state-of-the-art results in
the popular PartNet dataset.
- Abstract(参考訳): 本稿では,3次元形状分割を目的とし,コレクション内の形状にまたがる点的特徴表現を伝播する深層学習手法を提案する。
形状の特徴と他の形状との相互作用を可能にするクロスシェイプアテンション機構を提案する。
このメカニズムは、点間の相互作用の度合いと、形状間の特徴伝播の仲介の両方を評価し、その結果の点次特徴表現の精度と一貫性を向上させる。
また,各試験形状に対して,横断型注意操作に適した形状を選択する形状検索手法を提案する。
我々の実験は、私たちのアプローチが人気のPartNetデータセットに最先端の結果をもたらすことを示した。
関連論文リスト
- Learning SO(3)-Invariant Semantic Correspondence via Local Shape Transform [62.27337227010514]
RISTと呼ばれる局所形状変換を用いた自己教師型回転不変3次元対応学習システムを提案する。
RISTは、挑戦的なクラス内変分と任意の向きの下でも、形状間の密接な対応を確立することを学ぶ。
RISTは、任意の回転点雲対に与えられる3D部分ラベル転送とセマンティックキーポイント転送の最先端性能を示す。
論文 参考訳(メタデータ) (2024-04-17T08:09:25Z) - Spectral Meets Spatial: Harmonising 3D Shape Matching and Interpolation [50.376243444909136]
本稿では,3次元形状の対応と形状の両面を統一的に予測する枠組みを提案する。
我々は、スペクトル領域と空間領域の両方の形状を地図化するために、奥行き関数写像フレームワークと古典的な曲面変形モデルを組み合わせる。
論文 参考訳(メタデータ) (2024-02-29T07:26:23Z) - ShapeMatcher: Self-Supervised Joint Shape Canonicalization,
Segmentation, Retrieval and Deformation [47.94499636697971]
本稿では,関節形状の正準化,分節化,検索,変形を行うための自己教師型学習フレームワークであるShapeMatcherを提案する。
ShapeMakerの重要な洞察は、標準化、セグメンテーション、検索、変形という4つの高関連プロセスの同時トレーニングである。
論文 参考訳(メタデータ) (2023-11-18T15:44:57Z) - Geometrically Consistent Partial Shape Matching [50.29468769172704]
3次元形状の対応を見つけることは、コンピュータビジョンとグラフィックスにおいて重要な問題である。
しばしば無視されるが、整合幾何学の重要な性質は整合性である。
本稿では,新しい整数型線形計画部分形状整合式を提案する。
論文 参考訳(メタデータ) (2023-09-10T12:21:42Z) - Zero-Shot 3D Shape Correspondence [67.18775201037732]
本稿では,3次元形状間の対応性を計算するためのゼロショット手法を提案する。
我々は、最近の基礎モデルの言語と視覚における例外的な推論能力を活用している。
提案手法は, 強い非等尺形状の間において, ゼロショット方式で高確率な結果をもたらす。
論文 参考訳(メタデータ) (2023-06-05T21:14:23Z) - Prototype-Aware Heterogeneous Task for Point Cloud Completion [35.47134205562422]
ポイントクラウド補完は、部分的なポイントクラウドから元の形状情報を復元することを目的としている。
既存の方法は通常標準形状の完成に成功し、非標準形状の点雲の局所的な詳細を生成できない。
本研究では,クラス内形状表現の助けを借りて,標準形・非標準形を識別する効果的な手法を設計する。
論文 参考訳(メタデータ) (2022-09-05T02:43:06Z) - Cloud Sphere: A 3D Shape Representation via Progressive Deformation [21.216503294296317]
本論文は形状形成過程から特異な情報を発見することを目的としている。
プログレッシブな変形に基づくオートエンコーダを提案する。
実験の結果,提案したPDAEは高忠実度で3次元形状を復元できることがわかった。
論文 参考訳(メタデータ) (2021-12-21T12:10:23Z) - Unsupervised Learning for Cuboid Shape Abstraction via Joint
Segmentation from Point Clouds [8.156355030558172]
複雑な3Dオブジェクトを、形状抽象化として知られる単純な幾何学的原始体として表現することは、幾何学的モデリング、構造解析、形状合成において重要である。
本研究では、点雲をコンパクトな立方体表現にマッピングするための教師なし形状抽象化法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:15:16Z) - Shape-Oriented Convolution Neural Network for Point Cloud Analysis [59.405388577930616]
ポイントクラウドは3次元幾何学情報符号化に採用されている主要なデータ構造である。
形状指向型メッセージパッシング方式であるShapeConvを提案する。
論文 参考訳(メタデータ) (2020-04-20T16:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。