論文の概要: Two-stage Synthetic Supervising and Multi-view Consistency
Self-supervising based Animal 3D Reconstruction by Single Image
- arxiv url: http://arxiv.org/abs/2311.13199v3
- Date: Tue, 20 Feb 2024 02:57:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:16:33.434585
- Title: Two-stage Synthetic Supervising and Multi-view Consistency
Self-supervising based Animal 3D Reconstruction by Single Image
- Title(参考訳): 単一画像による2段階合成監視と多視点整合自己監督に基づく動物3D再構成
- Authors: Zijian Kuang, Lihang Ying, Shi Jin, Li Cheng
- Abstract要約: 本研究では,2段階指導と自己監督訓練を組み合わせることで,動物による3Dスキャンの課題に対処する。
本研究は,鳥の3次元ディジタル化の定量的・定性的側面において,最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 30.997936022365018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pixel-aligned Implicit Function (PIFu) effectively captures subtle variations
in body shape within a low-dimensional space through extensive training with
human 3D scans, its application to live animals presents formidable challenges
due to the difficulty of obtaining animal cooperation for 3D scanning. To
address this challenge, we propose the combination of two-stage supervised and
self-supervised training to address the challenge of obtaining animal
cooperation for 3D scanning. In the first stage, we leverage synthetic animal
models for supervised learning. This allows the model to learn from a diverse
set of virtual animal instances. In the second stage, we use 2D multi-view
consistency as a self-supervised training method. This further enhances the
model's ability to reconstruct accurate and realistic 3D shape and texture from
largely available single-view images of real animals. The results of our study
demonstrate that our approach outperforms state-of-the-art methods in both
quantitative and qualitative aspects of bird 3D digitization. The source code
is available at https://github.com/kuangzijian/drifu-for-animals.
- Abstract(参考訳): pixel-aligned implicit function(pifu)は、人間の3dスキャンによる広範なトレーニングを通じて、低次元空間内の身体形状の微妙な変化を効果的に捉える。
この課題に対処するために,2段階指導と自己監督訓練の組み合わせを提案し,動物による3Dスキャンの課題に対処する。
第1段階では,合成動物モデルを用いて教師付き学習を行う。
これにより、モデルがさまざまな仮想動物インスタンスから学習できるようになる。
第2段階では,自己監督訓練方法として2次元マルチビュー一貫性を用いた。
これにより、モデルがより正確にリアルな3D形状とテクスチャを再構築する能力が強化される。
本研究は,鳥の3dデジタル化の定量的,質的側面において,最先端の手法を上回っていることを示す。
ソースコードはhttps://github.com/kuangzijian/drifu-for-animalsで入手できる。
関連論文リスト
- Learning the 3D Fauna of the Web [70.01196719128912]
3D-Faunaは,100種以上の動物種を対象に,パンカテゴリーで変形可能な3D動物モデルを共同で学習する手法である。
動物モデリングにおける重要なボトルネックの1つは、トレーニングデータの可用性の制限である。
従来のカテゴリー固有の試みは,訓練画像に制限のある希少種への一般化に失敗することを示す。
論文 参考訳(メタデータ) (2024-01-04T18:32:48Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - Animal3D: A Comprehensive Dataset of 3D Animal Pose and Shape [32.11280929126699]
哺乳類の3Dポーズと形状推定のための包括的データセットであるAnimal3Dを提案する。
動物3Dは、40種の哺乳類から収集された3379枚の画像、26個のキーポイントの高品質なアノテーション、特にSMALモデルのポーズと形状パラメータで構成されている。
The Animal3D data based on the Animal3D dataset, we benchmark representative shape and pose Estimation model at (1) 教師付き学習, (2) 合成画像から実写への変換, 3) 微調整された人間のポーズと形状推定モデル。
論文 参考訳(メタデータ) (2023-08-22T18:57:07Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - MagicPony: Learning Articulated 3D Animals in the Wild [81.63322697335228]
そこで本研究では,オブジェクトカテゴリのワンビュー画像から,この予測器を純粋に学習するMagicPonyを提案する。
その中核は、明瞭な形状と外観を暗黙的に表現し、神経磁場とメッシュの強さを組み合わせたものである。
論文 参考訳(メタデータ) (2022-11-22T18:59:31Z) - LASSIE: Learning Articulated Shapes from Sparse Image Ensemble via 3D
Part Discovery [72.3681707384754]
そこで,本研究では,特定の動物種について,数枚の画像のみを用いて,動物の3次元ポーズと形状を推定する現実的な問題設定を提案する。
我々は2Dや3Dの地平線アノテーションを前提としないし、多視点や時間的情報も利用しない。
そこで本研究では,3次元部品を自己監督的に発見する新しい最適化フレームワークLASSIEを提案する。
論文 参考訳(メタデータ) (2022-07-07T17:00:07Z) - PoseTriplet: Co-evolving 3D Human Pose Estimation, Imitation, and
Hallucination under Self-supervision [102.48681650013698]
既存の自己監督型3次元ポーズ推定スキームは、学習を導くための弱い監督に大きく依存している。
そこで我々は,2D-3Dのポーズペアを明示的に生成し,監督を増強する,新しい自己監督手法を提案する。
これは、ポーズ推定器とポーズ幻覚器を併用して学習する強化学習ベースの模倣器を導入することで可能となる。
論文 参考訳(メタデータ) (2022-03-29T14:45:53Z) - Human Performance Capture from Monocular Video in the Wild [50.34917313325813]
本研究では,挑戦的な身体ポーズを特徴とするモノクロ映像から動的3次元人体形状をキャプチャする手法を提案する。
本手法は,現在開発中の3DPWビデオデータセットにおいて,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2021-11-29T16:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。