論文の概要: TIFu: Tri-directional Implicit Function for High-Fidelity 3D Character
Reconstruction
- arxiv url: http://arxiv.org/abs/2401.14565v1
- Date: Thu, 25 Jan 2024 23:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:28:12.177325
- Title: TIFu: Tri-directional Implicit Function for High-Fidelity 3D Character
Reconstruction
- Title(参考訳): TIFu:高忠実度3次元文字再構成のための三方向インシシト関数
- Authors: Byoungsung Lim and Seong-Whan Lee
- Abstract要約: Tri-directional Implicit Function (TIFu) は、メモリ使用量を大幅に削減しつつ、グローバルな3Dコンピテンシーを増大させるベクトルレベル表現である。
3つの軸に沿ってベクトルを集約することで任意の解像度で3次元再構成に新しいアルゴリズムを導入する。
提案手法は,自己計算したキャラクタデータセットとベンチマーク3次元人的データセットの両方において,最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 35.299242563565315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in implicit function-based approaches have shown promising
results in 3D human reconstruction from a single RGB image. However, these
methods are not sufficient to extend to more general cases, often generating
dragged or disconnected body parts, particularly for animated characters. We
argue that these limitations stem from the use of the existing point-level 3D
shape representation, which lacks holistic 3D context understanding.
Voxel-based reconstruction methods are more suitable for capturing the entire
3D space at once, however, these methods are not practical for high-resolution
reconstructions due to their excessive memory usage. To address these
challenges, we introduce Tri-directional Implicit Function (TIFu), which is a
vector-level representation that increases global 3D consistencies while
significantly reducing memory usage compared to voxel representations. We also
introduce a new algorithm in 3D reconstruction at an arbitrary resolution by
aggregating vectors along three orthogonal axes, resolving inherent problems
with regressing fixed dimension of vectors. Our approach achieves
state-of-the-art performances in both our self-curated character dataset and
the benchmark 3D human dataset. We provide both quantitative and qualitative
analyses to support our findings.
- Abstract(参考訳): 暗黙的機能に基づくアプローチの最近の進歩は、単一のRGB画像から3次元の人間の再構築に有望な結果を示している。
しかし、これらの手法はより一般的なケースにまで拡張するには不十分であり、特にアニメーションキャラクターのために、しばしば引きずりや切断された身体部品を生成する。
これらの制限は, 総合的な3次元コンテキスト理解が欠如している, 既存の点レベル3次元形状表現の使用に起因していると主張する。
ボクセルを用いた再構成法は, 一度に3次元空間全体を捉えるのに適しているが, 過度なメモリ使用量のために高分解能再構成には実用的ではない。
これらの課題に対処するために,我々は,voxel表現に比べてメモリ使用量を大幅に削減しつつ,グローバル3次元構成を増加させるベクトルレベル表現であるtri-directional implicit function (tifu)を導入する。
また,3つの直交軸に沿ってベクトルを集約することで任意の解像度で3次元再構成する新しいアルゴリズムを導入し,ベクトルの固定次元を後退させることで本質的な問題を解決した。
提案手法は,自己計算したキャラクタデータセットとベンチマーク3次元人的データセットの両方において,最先端のパフォーマンスを実現する。
定量分析と定性解析を併用して分析を行った。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Optimizing 3D Geometry Reconstruction from Implicit Neural Representations [2.3940819037450987]
暗黙の神経表現は、3D幾何学を学ぶための強力なツールとして登場した。
本稿では,計算コストを削減し,細部を捉える新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T16:36:23Z) - DiffTF++: 3D-aware Diffusion Transformer for Large-Vocabulary 3D Generation [53.20147419879056]
拡散型フィードフォワードフレームワークを導入し,単一モデルで課題に対処する。
TransFormerを用いた3D対応拡散モデルを構築し,より強力な3D生成,すなわちDiffTF++を提案する。
ShapeNetとOmniObject3Dの実験は、提案したモジュールの有効性を確実に実証している。
論文 参考訳(メタデータ) (2024-05-13T17:59:51Z) - Implicit Shape and Appearance Priors for Few-Shot Full Head
Reconstruction [17.254539604491303]
本稿では,数発のフル3次元頭部再構成の問題点に対処する。
我々は、座標に基づく表現に先立って確率的形状と外観を組み込むことにより、これを達成した。
我々はH3DSデータセットを拡張し、60個の高解像度3Dフルヘッドスキャンと対応する画像とマスクを含む。
論文 参考訳(メタデータ) (2023-10-12T07:35:30Z) - SHINE-Mapping: Large-Scale 3D Mapping Using Sparse Hierarchical Implicit
Neural Representations [37.733802382489515]
本稿では, 3次元LiDAR計測を用いて, 暗示表現を用いた大規模3次元再構成を実現する際の課題について述べる。
我々はオクツリーに基づく階層構造を通じて暗黙的な特徴を学習し、保存する。
我々の3D再構成は、現在の最先端3Dマッピング法よりも正確で、完全で、メモリ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-10-05T14:38:49Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - H3D-Net: Few-Shot High-Fidelity 3D Head Reconstruction [27.66008315400462]
表面形状を暗黙的に表現する最近の学習手法は、多視点3次元再構成の問題において顕著な結果を示している。
我々はこれらの制限を,数発のフル3次元頭部再構成の特定の問題に対処する。
暗黙の表現を用いて,数千個の不完全な生スキャンから3次元頭部形状モデルを学習する。
論文 参考訳(メタデータ) (2021-07-26T23:04:18Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。