論文の概要: DcMatch: Unsupervised Multi-Shape Matching with Dual-Level Consistency
- arxiv url: http://arxiv.org/abs/2509.01204v1
- Date: Mon, 01 Sep 2025 07:43:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.58113
- Title: DcMatch: Unsupervised Multi-Shape Matching with Dual-Level Consistency
- Title(参考訳): DcMatch: デュアルレベル一貫性を備えた教師なしマルチ形状マッチング
- Authors: Tianwei Ye, Yong Ma, Xiaoguang Mei,
- Abstract要約: 非厳密なマルチ形状マッチングのための新しい教師なし学習フレームワークであるDcMatchを紹介する。
形状グラフアテンションネットワークを利用して、全体の形状収集の基盤となる多様体構造を捉える。
提案手法は, 多様な複数形状のマッチングシナリオにおいて, 従来の最先端手法より一貫して優れていた。
- 参考スコア(独自算出の注目度): 10.661544717577389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Establishing point-to-point correspondences across multiple 3D shapes is a fundamental problem in computer vision and graphics. In this paper, we introduce DcMatch, a novel unsupervised learning framework for non-rigid multi-shape matching. Unlike existing methods that learn a canonical embedding from a single shape, our approach leverages a shape graph attention network to capture the underlying manifold structure of the entire shape collection. This enables the construction of a more expressive and robust shared latent space, leading to more consistent shape-to-universe correspondences via a universe predictor. Simultaneously, we represent these correspondences in both the spatial and spectral domains and enforce their alignment in the shared universe space through a novel cycle consistency loss. This dual-level consistency fosters more accurate and coherent mappings. Extensive experiments on several challenging benchmarks demonstrate that our method consistently outperforms previous state-of-the-art approaches across diverse multi-shape matching scenarios. Code is available at https://github.com/YeTianwei/DcMatch.
- Abstract(参考訳): 複数の3次元形状のポイント・ツー・ポイント対応を確立することは、コンピュータビジョンとグラフィックスの基本的な問題である。
本稿では,非厳密なマルチ形状マッチングのための新しい教師なし学習フレームワークであるDcMatchを紹介する。
単一形状からの正準埋め込みを学習する既存の手法とは異なり,本手法は形状グラフ注意ネットワークを利用して全体形状収集の基盤となる多様体構造を捉える。
これにより、より表現的かつ堅牢な共有潜在空間の構築が可能となり、宇宙予測器を介してより一貫した形状とユニバースの対応がもたらされる。
同時に、これらの対応を空間領域とスペクトル領域の両方で表現し、新しい周期整合損失によって共有宇宙空間におけるアライメントを強制する。
この二重レベルの一貫性はより正確でコヒーレントなマッピングを促進する。
いくつかの挑戦的なベンチマークにおいて、我々の手法は様々なマルチ形状のマッチングシナリオにおいて、従来の最先端手法を一貫して上回っていることを示す。
コードはhttps://github.com/YeTianwei/DcMatch.comで入手できる。
関連論文リスト
- Partial-to-Partial Shape Matching with Geometric Consistency [47.46502145377953]
3次元形状の対応を見つけることは、コンピュータビジョン、グラフィックスなどにおいて、重要かつ長年にわたる問題である。
我々は、幾何学的整合性を強い制約として利用することにより、既存の(あるいは人工的な)3次元フル形状マッチングと部分的から部分的な実世界の設定のギャップを埋める。
三角積空間上に構築された新しい整数非線型プログラム形式により実現された部分対部分マッチングの幾何学的整合性を実現する。
論文 参考訳(メタデータ) (2024-04-18T14:14:07Z) - Deformation-Guided Unsupervised Non-Rigid Shape Matching [7.327850781641328]
非厳密な形状マッチングのための教師なしデータ駆動方式を提案する。
本手法は,3次元スキャナを用いたディジタル形状のマッチングにおいて特に堅牢である。
論文 参考訳(メタデータ) (2023-11-27T09:55:55Z) - Geometrically Consistent Partial Shape Matching [50.29468769172704]
3次元形状の対応を見つけることは、コンピュータビジョンとグラフィックスにおいて重要な問題である。
しばしば無視されるが、整合幾何学の重要な性質は整合性である。
本稿では,新しい整数型線形計画部分形状整合式を提案する。
論文 参考訳(メタデータ) (2023-09-10T12:21:42Z) - G-MSM: Unsupervised Multi-Shape Matching with Graph-based Affinity
Priors [52.646396621449]
G-MSMは、非剛体形状対応のための新しい教師なし学習手法である。
学習形態の集合に親和性グラフを自己教師型で構築する。
近年の形状対応ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2022-12-06T12:09:24Z) - Unsupervised Deep Multi-Shape Matching [15.050801537501462]
3次元形状マッチングは、コンピュータビジョンとコンピュータグラフィックスにおける長年の問題である。
本稿では, サイクル一貫性のあるマルチマッチングを実現するための, 深層多形マッチング手法を提案する。
提案手法は、いくつかの挑戦的なベンチマークデータセットに対して、最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-07-20T01:22:08Z) - A Scalable Combinatorial Solver for Elastic Geometrically Consistent 3D
Shape Matching [69.14632473279651]
本稿では,3次元形状間の幾何学的一貫したマッピング空間をグローバルに最適化するスケーラブルなアルゴリズムを提案する。
従来の解法よりも数桁高速なラグランジュ双対問題と結合した新しい原始問題を提案する。
論文 参考訳(メタデータ) (2022-04-27T09:47:47Z) - Isometric Multi-Shape Matching [50.86135294068138]
形状間の対応を見つけることは、コンピュータビジョンとグラフィックスの基本的な問題である。
アイソメトリーは形状対応問題においてしばしば研究されるが、マルチマッチング環境では明確には考慮されていない。
定式化を解くのに適した最適化アルゴリズムを提案し,コンバージェンスと複雑性解析を提供する。
論文 参考訳(メタデータ) (2020-12-04T15:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。