論文の概要: SMAL-pets: SMAL Based Avatars of Pets from Single Image
- arxiv url: http://arxiv.org/abs/2603.17131v1
- Date: Tue, 17 Mar 2026 20:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.392062
- Title: SMAL-pets: SMAL Based Avatars of Pets from Single Image
- Title(参考訳): SMAL-pets:単一画像からのSMALベースのペットのアバター
- Authors: Piotr Borycki, Joanna Waczyńska, Yizhe Zhu, Yongqiang Gao, Przemysław Spurek,
- Abstract要約: SMAL-petsは、単一の入力画像から高品質で編集可能な動物アバターを生成する包括的なフレームワークである。
我々のアプローチは、ハイブリッドアーキテクチャを活用して、再構築と生成モデリングのギャップを埋める。
- 参考スコア(独自算出の注目度): 6.956006697118972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating high-fidelity, animatable 3D dog avatars remains a formidable challenge in computer vision. Unlike human digital doubles, animal reconstruction faces a critical shortage of large-scale, annotated datasets for specialized applications. Furthermore, the immense morphological diversity across species, breeds, and crosses, which varies significantly in size, proportions, and features, complicates the generalization of existing models. Current reconstruction methods often struggle to capture realistic fur textures. Additionally, ensuring these avatars are fully editable and capable of performing complex, naturalistic movements typically necessitates labor-intensive manual mesh manipulation and expert rigging. This paper introduces SMAL-pets, a comprehensive framework that generates high-quality, editable animal avatars from a single input image. Our approach bridges the gap between reconstruction and generative modeling by leveraging a hybrid architecture. Our method integrates 3D Gaussian Splatting with the SMAL parametric model to provide a representation that is both visually high-fidelity and anatomically grounded. We introduce a multimodal editing suite that enables users to refine the avatar's appearance and execute complex animations through direct textual prompts. By allowing users to control both the aesthetic and behavioral aspects of the model via natural language, SMAL-pets provides a flexible, robust tool for animation and virtual reality.
- Abstract(参考訳): 高忠実でアニマタブルな3Dドッグアバターを作ることは、コンピュータビジョンにおける深刻な課題だ。
人間のデジタルダブルとは違って、動物の再構築は、専門的な用途のための大規模で注釈付きデータセットの不足に直面している。
さらに、種、種、および交雑種間の大きな形態的多様性は、サイズ、比率、特徴において大きく異なり、既存のモデルの一般化を複雑にしている。
現在の再建法は、しばしば現実的な毛皮のテクスチャを捉えるのに苦労する。
さらに、これらのアバターが完全に編集可能で、複雑な自然主義的な動作を行うためには、通常、労働集約的な手動メッシュ操作とエキスパートリグが必要である。
本稿では,単一の入力画像から高品質で編集可能な動物アバターを生成する包括的なフレームワークであるSMAL-petsを紹介する。
我々のアプローチは、ハイブリッドアーキテクチャを活用して、再構築と生成モデリングのギャップを埋める。
本手法は,3次元ガウス散乱とSMALパラメトリックモデルを統合し,視覚的に高忠実度かつ解剖学的根拠のある表現を提供する。
本研究では,アバターの外観を改良し,テキストによる直接プロンプトによって複雑なアニメーションを実行できるマルチモーダル編集スイートを提案する。
ユーザーが自然言語でモデルの美的側面と行動的側面の両方を制御できるようにすることで、SMAL-petsはアニメーションとバーチャルリアリティーのための柔軟で堅牢なツールを提供する。
関連論文リスト
- MPMAvatar: Learning 3D Gaussian Avatars with Accurate and Robust Physics-Based Dynamics [27.63650397876897]
MPMAvatarは、マルチビュービデオから3Dヒューマンアバターを作成するためのフレームワークである。
高精度でロバストな動的モデリングのために、我々はMaterial Point Methodベースのシミュレータを使う。
論文 参考訳(メタデータ) (2025-10-02T02:51:45Z) - AdaHuman: Animatable Detailed 3D Human Generation with Compositional Multiview Diffusion [56.12859795754579]
AdaHumanは、単一のアプリ内画像から高忠実でアニマタブルな3Dアバターを生成する新しいフレームワークである。
AdaHumanはポーズ条件付き3D共同拡散モデルと合成3DGS精製モジュールという2つの重要なイノベーションを取り入れている。
論文 参考訳(メタデータ) (2025-05-30T17:59:54Z) - EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - FRESA: Feedforward Reconstruction of Personalized Skinned Avatars from Few Images [74.86864398919467]
数枚の画像からリアルなアニメーションで、パーソナライズされた3Dアバターを再構成する新しい手法を提案する。
我々は、1000人以上の服を着た人間から普遍的な事前学習を行い、即時フィードフォワード生成とゼロショット一般化を実現する。
提案手法は, 最新技術よりも忠実な再構築とアニメーションを生成し, カジュアルに撮影された携帯電話写真からの入力に直接一般化することができる。
論文 参考訳(メタデータ) (2025-03-24T23:20:47Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。