論文の概要: CanFields: Consolidating 4D Dynamic Shapes from Raw Scans
- arxiv url: http://arxiv.org/abs/2406.18582v2
- Date: Wed, 27 Nov 2024 18:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:22:56.736353
- Title: CanFields: Consolidating 4D Dynamic Shapes from Raw Scans
- Title(参考訳): CanFields: 原寸から4Dのダイナミックな形状を統合
- Authors: Miaowei Wang, Changjian Li, Amir Vaxman,
- Abstract要約: CanFields (Canonical Consolidation Fields, CanFields) は、独立に捕獲された3Dスキャンの時系列を単一のコヒーレントな変形形状に再構成する新しい手法である。
CanFieldsは、2つの幾何学的前提を組み込むことで、教師なしの方法で幾何学と変形を効果的に学習する。
各種生スキャンにおけるCanFieldsのロバスト性と精度を検証し,欠落した領域,スパースフレーム,ノイズにおいても優れた性能を示す。
- 参考スコア(独自算出の注目度): 12.221737707194261
- License:
- Abstract: We introduce Canonical Consolidation Fields (CanFields), a new method for reconstructing a time series of independently captured 3D scans into a single, coherent deforming shape. This 4D representation enables continuous refinement across both space and time. Unlike prior methods that often over-smooth the geometry or produce topological and geometric artifacts, CanFields effectively learns geometry and deformation in an unsupervised way by incorporating two geometric priors. First, we introduce a dynamic consolidator module that adjusts the input and assigns confidence scores, balancing the learning of the canonical shape and its deformations. Second, we use low-frequency velocity fields to guide deformation while preserving fine details in canonical shapes through high-frequency bias. We validate the robustness and accuracy of CanFields on diverse raw scans, demonstrating its superior performance even with missing regions, sparse frames, and noise. Code is available in the supplementary materials and will be released publicly upon acceptance.
- Abstract(参考訳): CanFields (Canonical Consolidation Fields, CanFields) は、独立に捕獲された3Dスキャンの時系列を単一のコヒーレントな変形形状に再構成する新しい手法である。
この4D表現は、空間と時間の両方にわたって連続的な洗練を可能にする。
幾何を過度に滑らかにしたり、位相的および幾何学的アーティファクトを生成したりする従来の方法とは異なり、CanFieldsは2つの幾何学的先行要素を組み込むことで、教師なしの方法で幾何学と変形を効果的に学習する。
まず、入力を調整し、信頼スコアを割り当て、標準形状とその変形の学習のバランスをとる動的コンソリエータモジュールを導入する。
第二に、低周波速度場を用いて変形を誘導し、高周波バイアスによる正準形状の細部を保存する。
各種生スキャンにおけるCanFieldsのロバスト性と精度を検証し,欠落した領域,スパースフレーム,ノイズにおいても優れた性能を示す。
コードは補足資料で利用可能で、受理後、公開される予定である。
関連論文リスト
- Non-Rigid Shape Registration via Deep Functional Maps Prior [1.9249120068573227]
本研究では,非剛体形状登録のための学習ベースフレームワークを提案する。
我々は、高次元埋め込みによって誘導される対応によって誘導されるターゲットポイントクラウドに向かって、ソースメッシュを変形する。
我々のパイプラインは、厳密でないクラウドマッチングのいくつかのベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-11-08T06:52:57Z) - PatchRD: Detail-Preserving Shape Completion by Learning Patch Retrieval
and Deformation [59.70430570779819]
本稿では,3次元形状の欠落領域の幾何学的詳細化に焦点を当てたデータ駆動型形状補完手法を提案する。
私たちの重要な洞察は、部分的な入力から完全な欠落したリージョンへのパッチのコピーとデフォームです。
部分的な入力からパッチを抽出することで繰り返しパターンを活用し、ニューラルネットワークを用いてグローバルな構造的先行点を学習し、検索と変形の手順を導出する。
論文 参考訳(メタデータ) (2022-07-24T18:59:09Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Implicit field supervision for robust non-rigid shape matching [29.7672368261038]
2つの非剛性変形形状の対応を確立することは、ビジュアルコンピューティングにおける最も基本的な問題の1つである。
固定テンプレート上で連続的な形状の変形場を学習する自動デコーダフレームワークに基づく手法を提案する。
本手法は強い人工物の存在下では極めて堅牢であり,任意の形状のカテゴリに一般化することができる。
論文 参考訳(メタデータ) (2022-03-15T07:22:52Z) - EditVAE: Unsupervised Part-Aware Controllable 3D Point Cloud Shape
Generation [19.817166425038753]
本稿では,パートアウェアポイントクラウド生成の問題に対処する。
変分オートエンコーダの簡単な修正により、点雲自体のジョイントモデルが得られる。
歪んだ表現によって得られる柔軟性に加えて、我々のジョイントモデリングアプローチによって導入された帰納バイアスは、ShapeNetデータセットの最先端の実験結果をもたらす。
論文 参考訳(メタデータ) (2021-10-13T12:38:01Z) - Weakly-supervised 3D Shape Completion in the Wild [91.04095516680438]
非整合および実世界の部分点雲から3次元完全形状を学習する問題に対処する。
複数の部分的な観察から3次元標準形状と6-DoFのアライメントを推定する弱い教師付き手法を提案する。
合成データと実データの両方の実験では、形状やポーズを伴わずに大規模なデータを通じて3次元形状の完成を学習することは可能であり、有望であることが示された。
論文 参考訳(メタデータ) (2020-08-20T17:53:42Z) - Learning non-rigid surface reconstruction from spatio-temporal image
patches [0.0]
ビデオシーケンスから変形可能な物体の高密度時間深度マップを再構成する手法を提案する。
映像の非時間的パッチで深度推定をローカルに行い、それらを組み合わせることで全形状のフル深度映像を復元する。
本手法をKinectデータとKinectデータの両方で検証し,従来の非剛体構造のような他の手法に比べて再構成誤差が有意に低いことを実験的に観察した。
論文 参考訳(メタデータ) (2020-06-18T20:25:15Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Shape-Oriented Convolution Neural Network for Point Cloud Analysis [59.405388577930616]
ポイントクラウドは3次元幾何学情報符号化に採用されている主要なデータ構造である。
形状指向型メッセージパッシング方式であるShapeConvを提案する。
論文 参考訳(メタデータ) (2020-04-20T16:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。