論文の概要: Fast-SNARF: A Fast Deformer for Articulated Neural Fields
- arxiv url: http://arxiv.org/abs/2211.15601v2
- Date: Thu, 1 Dec 2022 18:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 16:04:24.989913
- Title: Fast-SNARF: A Fast Deformer for Articulated Neural Fields
- Title(参考訳): Fast-SNARF:人工神経の高速変形器
- Authors: Xu Chen, Tianjian Jiang, Jie Song, Max Rietmann, Andreas Geiger,
Michael J. Black, Otmar Hilliges
- Abstract要約: 本稿では,標準空間とポーズ空間の正確な対応性を求める,ニューラルフィールドのための新しい調音モジュールFast-SNARFを提案する。
Fast-SNARFはこれまでの研究であるSNARFの代替であり、計算効率は大幅に向上した。
変形マップの学習は多くの3次元人間のアバター法において重要な要素であるため、この研究は3次元仮想人間の実現に向けた重要なステップであると考えている。
- 参考スコア(独自算出の注目度): 92.68788512596254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural fields have revolutionized the area of 3D reconstruction and novel
view synthesis of rigid scenes. A key challenge in making such methods
applicable to articulated objects, such as the human body, is to model the
deformation of 3D locations between the rest pose (a canonical space) and the
deformed space. We propose a new articulation module for neural fields,
Fast-SNARF, which finds accurate correspondences between canonical space and
posed space via iterative root finding. Fast-SNARF is a drop-in replacement in
functionality to our previous work, SNARF, while significantly improving its
computational efficiency. We contribute several algorithmic and implementation
improvements over SNARF, yielding a speed-up of $150\times$. These improvements
include voxel-based correspondence search, pre-computing the linear blend
skinning function, and an efficient software implementation with CUDA kernels.
Fast-SNARF enables efficient and simultaneous optimization of shape and
skinning weights given deformed observations without correspondences (e.g. 3D
meshes). Because learning of deformation maps is a crucial component in many 3D
human avatar methods and since Fast-SNARF provides a computationally efficient
solution, we believe that this work represents a significant step towards the
practical creation of 3D virtual humans.
- Abstract(参考訳): ニューラルフィールドは3次元再構成と剛体シーンの新しいビュー合成の領域に革命をもたらした。
このような手法を人体などの関節オブジェクトに適用する上で重要な課題は、残りのポーズ(標準空間)と変形した空間の間の3D位置の変形をモデル化することである。
本研究では, 反復的ルート探索により, 正準空間とポーズ空間の正確な対応を求める, ニューラルフィールドのための新しい調音モジュールfast-snarfを提案する。
Fast-SNARFは、これまでの作業であるSNARFの代替機能であり、計算効率は大幅に向上した。
我々は,SNARFに対するアルゴリズムおよび実装の改善に寄与し,150\times$の高速化を実現した。
これらの改善には、voxelベースの対応検索、線形ブレンドスキン機能の事前計算、CUDAカーネルによる効率的なソフトウェア実装が含まれる。
高速SNARFは、対応のない変形した観察(例えば3Dメッシュ)に対して、形状とスキンの重量の効率的かつ同時最適化を可能にする。
変形マップの学習は多くの人間のアバター法において重要な要素であり、Fast-SNARFは計算効率の良い解を提供するので、この研究は3次元仮想人間の実現に向けた重要な一歩であると信じている。
関連論文リスト
- GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - IKOL: Inverse kinematics optimization layer for 3D human pose and shape
estimation via Gauss-Newton differentiation [44.00115413716392]
本稿では3次元ポーズ形状推定のための逆運動層(IKOL)を提案する。
IKOLは、既存の回帰ベースのメソッドよりもはるかに多い。
より正確な3Dポーズ推定を提供する。
論文 参考訳(メタデータ) (2023-02-02T12:43:29Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - Medical Image Registration via Neural Fields [35.80302878742334]
NIR(Neural Image Registration)と呼ばれる新しいニューラルネットベースの画像登録フレームワークを提案する。
2つの3D MR脳スキャンデータセットの実験により、NIRは登録精度と正規性の両方の観点から最先端のパフォーマンスを得る一方で、従来の最適化ベースの手法よりもはるかに高速に動作していることが示された。
論文 参考訳(メタデータ) (2022-06-07T08:43:31Z) - Learned Vertex Descent: A New Direction for 3D Human Model Fitting [64.04726230507258]
画像やスキャンに適合する3次元人体モデルのための新しい最適化手法を提案する。
われわれのアプローチは、非常に異なる体型を持つ服を着た人々の基盤となる身体を捉えることができ、最先端技術と比べて大きな改善を達成できる。
LVDはまた、人間と手の3次元モデル適合にも適用でき、よりシンプルで高速な方法でSOTAに大きな改善が示される。
論文 参考訳(メタデータ) (2022-05-12T17:55:51Z) - Implicit Optimizer for Diffeomorphic Image Registration [3.1970342304563037]
本稿では,Diffomorphic Image Registration (IDIR) の高速かつ正確なインプシットを提案する。
提案手法を2つの大規模MR脳スキャンデータセットで評価し,提案手法が従来の画像登録手法よりも高速かつ優れた登録結果を提供することを示した。
論文 参考訳(メタデータ) (2022-02-25T05:04:29Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Towards Fast, Accurate and Stable 3D Dense Face Alignment [73.01620081047336]
本稿では,速度,精度,安定性のバランスをとる3DDFA-V2という新しい回帰フレームワークを提案する。
本研究では,静止画を平面内と面外の動きを取り入れた映像に変換する仮想合成法を提案する。
論文 参考訳(メタデータ) (2020-09-21T15:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。