論文の概要: KeyPointDiffuser: Unsupervised 3D Keypoint Learning via Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.03450v1
- Date: Wed, 03 Dec 2025 05:08:03 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:55:22.019032
- Title: KeyPointDiffuser: Unsupervised 3D Keypoint Learning via Latent Diffusion Models
- Title(参考訳): KeyPointDiffuser: 潜在拡散モデルによる教師なし3次元キーポイント学習
- Authors: Rhys Newbury, Juyan Zhang, Tin Tran, Hanna Kurniawati, Dana Kulić,
- Abstract要約: 本稿では,空間的に構造化された3次元キーポイントを点雲データから学習するための教師なしフレームワークを提案する。
これらのキーポイントはコンパクトで解釈可能な表現として機能し、Eucidated Diffusion Model (EDM) を用いて完全な形状を再構築する。
提案手法は多種多様な対象カテゴリにまたがって高い性能を達成し,従来の手法に比べてキーポイントの一貫性が6ポイント向上した。
- 参考スコア(独自算出の注目度): 3.6047642906482147
- License:
- Abstract: Understanding and representing the structure of 3D objects in an unsupervised manner remains a core challenge in computer vision and graphics. Most existing unsupervised keypoint methods are not designed for unconditional generative settings, restricting their use in modern 3D generative pipelines; our formulation explicitly bridges this gap. We present an unsupervised framework for learning spatially structured 3D keypoints from point cloud data. These keypoints serve as a compact and interpretable representation that conditions an Elucidated Diffusion Model (EDM) to reconstruct the full shape. The learned keypoints exhibit repeatable spatial structure across object instances and support smooth interpolation in keypoint space, indicating that they capture geometric variation. Our method achieves strong performance across diverse object categories, yielding a 6 percentage-point improvement in keypoint consistency compared to prior approaches.
- Abstract(参考訳): 教師なしの方法で3Dオブジェクトの構造を理解し、表現することは、コンピュータビジョンとグラフィックスにおける中核的な課題である。
既存のキーポイント法の多くは、無条件生成設定のために設計されておらず、現代の3D生成パイプラインでの使用を制限する。
本稿では,空間的に構造化された3次元キーポイントを点雲データから学習するための教師なしフレームワークを提案する。
これらのキーポイントはコンパクトで解釈可能な表現として機能し、Eucidated Diffusion Model (EDM) を用いて完全な形状を再構築する。
学習されたキーポイントは、オブジェクトインスタンス間で繰り返し可能な空間構造を示し、キーポイント空間における滑らかな補間をサポートし、幾何学的変動を捉えていることを示す。
提案手法は多種多様な対象カテゴリにまたがって高い性能を達成し,従来の手法に比べてキーポイントの一貫性が6ポイント向上した。
関連論文リスト
- Adaptive Point-Prompt Tuning: Fine-Tuning Heterogeneous Foundation Models for 3D Point Cloud Analysis [51.37795317716487]
本稿では,パラメータの少ない事前学習モデルを微調整するAdaptive Point-Prompt Tuning (APPT)法を提案する。
局所幾何学を集約することで原点雲を点埋め込みに変換し、空間的特徴を捉える。
任意のモダリティのソース領域から3Dへの自己アテンションを校正するために,重みを点埋め込みモジュールと共有するプロンプトジェネレータを導入する。
論文 参考訳(メタデータ) (2025-08-30T06:02:21Z) - Pts3D-LLM: Studying the Impact of Token Structure for 3D Scene Understanding With Large Language Models [9.658828841170472]
本研究は,3次元トークン構造に関する厳密な研究であり,映像ベースおよび点ベース表現を体系的に比較する。
本稿では,ソナタで事前学習したポイントトランスフォーマーV3エンコーダの3Dポイントクラウド機能を組み込むことで,視覚トークンを充実させる手法を提案する。
論文 参考訳(メタデータ) (2025-06-06T02:35:26Z) - A Lightweight UDF Learning Framework for 3D Reconstruction Based on Local Shape Functions [42.840655419509346]
本稿では,局所形状関数を利用して3次元点雲から表面を再構成する新しいニューラルネットワーク,LoSF-UDFを提案する。
本手法は, 従来の手法と比較して, 点雲におけるノイズや外れ値に対する耐性が向上していることを示す。
論文 参考訳(メタデータ) (2024-07-01T14:39:03Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - SNAKE: Shape-aware Neural 3D Keypoint Field [62.91169625183118]
形状復元には点雲から3Dキーポイントを検出することが重要である。
形状再構成は3次元キーポイント検出に有効か?
本稿では,形状認識型ニューラル3Dキーポイントフィールドに短いSNAKEという,教師なしの新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-03T17:58:43Z) - Unsupervised Learning of 3D Semantic Keypoints with Mutual
Reconstruction [11.164069907549756]
3Dセマンティックキーポイントは、3Dオブジェクト上のカテゴリレベルのセマンティック一貫性ポイントである。
点群から一貫した意味的キーポイントを明示的に生成するための教師なし手法を提案する。
我々の知る限り,提案手法は相互再構成の観点から初めて3次元意味的一貫したキーポイントを抽出するものである。
論文 参考訳(メタデータ) (2022-03-19T01:49:21Z) - Unsupervised Learning of Visual 3D Keypoints for Control [104.92063943162896]
高次元画像からの感覚運動制御ポリシーの学習は、基礎となる視覚表現の品質に大きく依存する。
本稿では,画像から3次元幾何学的構造を直接教師なしで学習するフレームワークを提案する。
これらの発見された3Dキーポイントは、時間と3D空間の両方で一貫した方法で、ロボットの関節と物体の動きを有意義にキャプチャする傾向がある。
論文 参考訳(メタデータ) (2021-06-14T17:59:59Z) - KeypointDeformer: Unsupervised 3D Keypoint Discovery for Shape Control [64.46042014759671]
keypointdeformerは、自動検出された3dキーポイントによる形状制御の教師なし方式である。
本手法は, 直観的かつ意味論的に形状変形の制御を行う。
論文 参考訳(メタデータ) (2021-04-22T17:59:08Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - CoKe: Localized Contrastive Learning for Robust Keypoint Detection [24.167397429511915]
特徴空間における3種類の距離を最適化するためにキーポイントカーネルを選択することができることを示す。
我々は、教師付きコントラスト学習を含むフレームワーク内で、この最適化プロセスを定式化する。
CoKeは、すべてのキーポイントを論理的に共同で表現するアプローチと比較して、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-29T16:00:43Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。