論文の概要: SMPL-IK: Learned Morphology-Aware Inverse Kinematics for AI Driven
Artistic Workflows
- arxiv url: http://arxiv.org/abs/2208.08274v1
- Date: Tue, 16 Aug 2022 14:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:33:37.780000
- Title: SMPL-IK: Learned Morphology-Aware Inverse Kinematics for AI Driven
Artistic Workflows
- Title(参考訳): SMPL-IK:AI駆動型アートワークフローのための形態認識逆キネマティクス
- Authors: Vikram Voleti, Boris N. Oreshkin, Florent Bocquelet, F\'elix G.
Harvey, Louis-Simon M\'enard, Christopher Pal
- Abstract要約: 我々は、Skinned Multi-Person Linear Model (SMPL) で動作する最先端の機械学習 IK ソルバを拡張した。
リアルタイム3Dソフトウェアに統合されると、この拡張システムは、新しいAI支援アニメーションを定義する機会を開く。
例えば、ポーズのオーサリングはSMPL-IKでより柔軟にでき、ユーザーはキャラクターをポーズしながら性別や体型を変更できる。
- 参考スコア(独自算出の注目度): 9.574645423576932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Inverse Kinematics (IK) systems are often rigid with respect to their input
character, thus requiring user intervention to be adapted to new skeletons. In
this paper we aim at creating a flexible, learned IK solver applicable to a
wide variety of human morphologies. We extend a state-of-the-art machine
learning IK solver to operate on the well known Skinned Multi-Person Linear
model (SMPL). We call our model SMPL-IK, and show that when integrated into
real-time 3D software, this extended system opens up opportunities for defining
novel AI-assisted animation workflows. For example, pose authoring can be made
more flexible with SMPL-IK by allowing users to modify gender and body shape
while posing a character. Additionally, when chained with existing pose
estimation algorithms, SMPL-IK accelerates posing by allowing users to
bootstrap 3D scenes from 2D images while allowing for further editing. Finally,
we propose a novel SMPL Shape Inversion mechanism (SMPL-SI) to map arbitrary
humanoid characters to the SMPL space, allowing artists to leverage SMPL-IK on
custom characters. In addition to qualitative demos showing proposed tools, we
present quantitative SMPL-IK baselines on the H36M and AMASS datasets.
- Abstract(参考訳): 逆運動学(Inverse Kinematics, IK)システムはしばしば入力文字に対して剛性があり、新しい骨格に適応するためにユーザーの介入を必要とする。
本稿では,多種多様な形態学に適用可能な柔軟で学習可能なikソルバを作成することを目的としている。
我々は、Skinned Multi-Person Linear Model (SMPL) を用いて、最先端の機械学習 IKソルバを拡張した。
我々のモデルをSMPL-IKと呼び、リアルタイム3Dソフトウェアに統合すると、この拡張システムは、新しいAI支援アニメーションワークフローを定義する機会を開く。
例えば、ポーズのオーサリングはSMPL-IKでより柔軟にでき、ユーザーはキャラクターをポーズしながら性別や体型を変更できる。
さらに、既存のポーズ推定アルゴリズムと連鎖すると、2d画像から3dシーンをブートストラップし、さらに編集することができる。
最後に,任意のヒューマノイド文字をSMPL空間にマッピングするSMPL形状変換機構(SMPL-SI)を提案する。
提案するツールの質的デモに加えて,h36mとamassデータセットのsmpl-ikベースラインを定量的に示す。
関連論文リスト
- ToMiE: Towards Modular Growth in Enhanced SMPL Skeleton for 3D Human with Animatable Garments [41.23897822168498]
本稿では,骨格の接合木を適応的に拡張するモジュール成長戦略を提案する。
具体的には、ToMiEと呼ばれる手法は、親関節の局在化と外部関節の最適化からなる。
ToMiEは、レンダリング品質だけでなく、成長したジョイントのフリーアニメーションを提供することで、さまざまなケースで他の方法よりも優れています。
論文 参考訳(メタデータ) (2024-10-10T16:25:52Z) - MIMO: Controllable Character Video Synthesis with Spatial Decomposed Modeling [21.1274747033854]
キャラクタビデオ合成は、ライフライクなシーン内でアニマタブルなキャラクターのリアルなビデオを作成することを目的としている。
Miloは、文字ビデオを制御可能な属性で合成できる新しいフレームワークである。
Miloは、任意のキャラクタへの高度なスケーラビリティ、新しい3Dモーションへの一般化、インタラクティブな現実世界のシーンへの適用性を実現している。
論文 参考訳(メタデータ) (2024-09-24T15:00:07Z) - BodyShapeGPT: SMPL Body Shape Manipulation with LLMs [7.3060422541212615]
LLM(Large Language Models)は、文学的な物語から、さまざまな分野の知識の専門的な応答まで、多様なテキストを生成することができる。
本稿では,人間の身体的記述を識別するための微調整LDMを用いて,SMPL-Xモデルを用いてアバターの正確な表現を作成する。
我々は,LSMがSMPLの形状空間を理解し,操作するために訓練できることを示し,自然言語による3次元人体形状の制御を可能にする。
論文 参考訳(メタデータ) (2024-09-18T16:55:23Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GOEmbed: Gradient Origin Embeddings for Representation Agnostic 3D Feature Learning [67.61509647032862]
入力された2次元画像を任意の3次元表現にエンコードするGOEmbed(Gradient Origin Embeddings)を提案する。
入力画像が大きな事前訓練されたモデルから抽出された2D特徴を用いて符号化される典型的な従来のアプローチとは異なり、カスタマイズされた特徴は異なる3D表現を扱うように設計されている。
論文 参考訳(メタデータ) (2023-12-14T08:39:39Z) - DeformGS: Scene Flow in Highly Deformable Scenes for Deformable Object Manipulation [66.7719069053058]
DeformGSは、複数のカメラからダイナミックなシーンを同時撮影することで、高度に変形可能なシーンのシーンフローを復元するアプローチである。
DeformGSは最先端と比較して平均55.8%の3Dトラッキングを改善している。
十分なテクスチャで、DeformGSは1.5 x 1.5 mの布の上で3.3mmの中央値追跡誤差を達成している。
論文 参考訳(メタデータ) (2023-11-30T18:53:03Z) - Instructing Robots by Sketching: Learning from Demonstration via Probabilistic Diagrammatic Teaching [14.839036866911089]
Learning for Demonstration (LfD)は、ロボットが専門家のデモを模倣し、ユーザーが直感的に指示を伝えることを可能にする。
近年のLfDの進歩は、ユーザがデモを指定するための媒体として、審美的教育や遠隔操作に依存していることが多い。
本稿では,LfDの代替パラダイムであるダイアグラム教育を紹介する。
論文 参考訳(メタデータ) (2023-09-07T16:49:38Z) - Interactive Sketching of Mannequin Poses [3.222802562733787]
3Dボディポーズは、様々なダウンストリームアプリケーションに必要である。
本研究では,シリンダーパーソナライズされた人間のスケッチからCGマネキンの3次元ポーズを推論する機械学習モデルを提案する。
ベクトルグラフィックストレーニングデータに対する我々のユニークなアプローチは、統合されたMLとキネマティクスシステムを支える。
論文 参考訳(メタデータ) (2022-12-14T08:45:51Z) - Animatable Implicit Neural Representations for Creating Realistic
Avatars from Videos [63.16888987770885]
本稿では,マルチビュー映像からアニマタブルな人間モデルを構築することの課題について述べる。
線形ブレンドスキンアルゴリズムに基づくポーズ駆動変形場を提案する。
提案手法は,近年の人体モデリング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:56:59Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。