論文の概要: Self-Supervised Implicit Attention Priors for Point Cloud Reconstruction
- arxiv url: http://arxiv.org/abs/2511.04864v1
- Date: Thu, 06 Nov 2025 23:01:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.613462
- Title: Self-Supervised Implicit Attention Priors for Point Cloud Reconstruction
- Title(参考訳): ポイントクラウド再構築のための自己監督型インシシト注意前処理
- Authors: Kyle Fogarty, Chenyue Cai, Jing Yang, Zhilin Guo, Cengiz Öztireli,
- Abstract要約: 入力点雲自体から直接、形状特異的な事前を蒸留する暗黙の自己優先的アプローチを導入する。
このハイブリッド戦略は,スパーク領域の規則化に先立って学習した知識を活用しつつ,入力データ中の微細な幾何学的詳細を保存していることを示す。
- 参考スコア(独自算出の注目度): 7.652381699040464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recovering high-quality surfaces from irregular point cloud is ill-posed unless strong geometric priors are available. We introduce an implicit self-prior approach that distills a shape-specific prior directly from the input point cloud itself and embeds it within an implicit neural representation. This is achieved by jointly training a small dictionary of learnable embeddings with an implicit distance field; at every query location, the field attends to the dictionary via cross-attention, enabling the network to capture and reuse repeating structures and long-range correlations inherent to the shape. Optimized solely with self-supervised point cloud reconstruction losses, our approach requires no external training data. To effectively integrate this learned prior while preserving input fidelity, the trained field is then sampled to extract densely distributed points and analytic normals via automatic differentiation. We integrate the resulting dense point cloud and corresponding normals into a robust implicit moving least squares (RIMLS) formulation. We show this hybrid strategy preserves fine geometric details in the input data, while leveraging the learned prior to regularize sparse regions. Experiments show that our method outperforms both classical and learning-based approaches in generating high-fidelity surfaces with superior detail preservation and robustness to common data degradations.
- Abstract(参考訳): 不規則点雲から高品質な表面を復元することは、強い幾何学的先行情報が得られない限り、不規則な状態に陥る。
我々は、入力ポイントクラウドから直接形状特異的な事前を蒸留し、暗黙の神経表現に埋め込む暗黙の自己優先的アプローチを導入する。
これは、暗黙の間隔で学習可能な埋め込みの小さな辞書を共同で訓練することで達成される。全てのクエリロケーションにおいて、フィールドは、クロスアテンションを介して辞書に出席し、ネットワークは、その形状に固有の繰り返し構造と長距離相関をキャプチャして再利用することができる。
自己管理のポイントクラウド再構築損失のみを最適化することで、当社のアプローチは外部トレーニングデータを必要としない。
入力の忠実さを保ちながら、この学習を効果的に統合するために、トレーニングされたフィールドをサンプリングし、自動微分によって高密度に分散された点と解析正常を抽出する。
得られた高密度点雲と対応する正規化を、ロバストな暗黙移動最小二乗(RIMLS)の定式化に統合する。
このハイブリッド戦略は,スパーク領域の規則化に先立って学習した知識を活用しつつ,入力データ中の微細な幾何学的詳細を保存していることを示す。
実験により,本手法は,高忠実度表面の生成における古典的および学習的アプローチ,および一般的なデータ劣化に対する高精細な保存と堅牢性に優れることを示す。
関連論文リスト
- DiffCom: Decoupled Sparse Priors Guided Diffusion Compression for Point Clouds [54.96190721255167]
ロスシー圧縮は、ポイントクラウドをストレージの潜在ポイントに変換するためのオートエンコーダに依存している。
本稿では,特に低レベルにおいて高い復元品質を実現するための拡散型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-21T05:41:35Z) - Deep Loss Convexification for Learning Iterative Models [11.36644967267829]
点雲登録のための反復的最近点(ICP)のような反復的手法は、しばしば悪い局所最適性に悩まされる。
我々は,各地真実の周囲に凸景観を形成する学習を提案する。
論文 参考訳(メタデータ) (2024-11-16T01:13:04Z) - Robustifying Generalizable Implicit Shape Networks with a Tunable
Non-Parametric Model [10.316008740970037]
無向点雲からの暗黙的形状再構成の一般化可能なモデルは一般化問題に悩まされる。
ここでは、これらの制限のいくつかをテスト時に緩和する効率的なメカニズムを提案する。
本稿では,本手法によるベースラインの改良と,合成データと実データを用いた最先端技術について述べる。
論文 参考訳(メタデータ) (2023-11-21T20:12:29Z) - Unsupervised Inference of Signed Distance Functions from Single Sparse
Point Clouds without Learning Priors [54.966603013209685]
3次元点雲から符号付き距離関数(SDF)を推測することは不可欠である。
単一スパース点雲から直接SDFを推定するニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T15:56:50Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Upsampling Autoencoder for Self-Supervised Point Cloud Learning [11.19408173558718]
人間のアノテーションを使わずに、ポイントクラウド学習のための自己教師付き事前学習モデルを提案する。
アップサンプリング操作は、ポイントクラウドの高レベルセマンティック情報と低レベル幾何情報の両方を捕捉することをネットワークに促す。
我々のUAEは、形状分類、部分分割、点雲アップサンプリングタスクにおいて、従来の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2022-03-21T07:20:37Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Meshing Point Clouds with Predicted Intrinsic-Extrinsic Ratio Guidance [30.863194319818223]
既存のポイントへの接続情報のみを付加することで、インプットポイントクラウドを可能な限り活用することを提案する。
私たちの重要なイノベーションはローカル接続のサロゲートであり、本質的/外生的メトリクスを比較して計算します。
提案手法は, 詳細を保存できるだけでなく, あいまいな構造を扱えるだけでなく, 目に見えないカテゴリに対して強い一般化性を持つことを示す。
論文 参考訳(メタデータ) (2020-07-17T22:36:00Z) - Point2Mesh: A Self-Prior for Deformable Meshes [83.31236364265403]
本稿では,入力点雲から表面メッシュを再構築する技術であるPoint2Meshを紹介する。
自己優先型は、ディープニューラルネットワークの重み内の単一の形状から幾何的繰り返しをカプセル化する。
ここでは,Point2Meshが所望の解に収束することを示す。
論文 参考訳(メタデータ) (2020-05-22T10:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。