論文の概要: SoftSMPL: Data-driven Modeling of Nonlinear Soft-tissue Dynamics for
Parametric Humans
- arxiv url: http://arxiv.org/abs/2004.00326v1
- Date: Wed, 1 Apr 2020 10:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:22:18.151726
- Title: SoftSMPL: Data-driven Modeling of Nonlinear Soft-tissue Dynamics for
Parametric Humans
- Title(参考訳): softsmpl:パラメトリック人体に対する非線形ソフトトイップダイナミクスのデータ駆動モデリング
- Authors: Igor Santesteban, Elena Garces, Miguel A. Otaduy, Dan Casas
- Abstract要約: 我々は,身体形状と運動の関数として,現実的なソフトタスクのダイナミクスをモデル化する学習ベース手法であるSoftSMPLを提案する。
私たちのメソッドの中核には、非常に現実的なダイナミクスをモデル化できる3つの重要なコントリビューションがあります。
- 参考スコア(独自算出の注目度): 15.83525220631304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SoftSMPL, a learning-based method to model realistic soft-tissue
dynamics as a function of body shape and motion. Datasets to learn such task
are scarce and expensive to generate, which makes training models prone to
overfitting. At the core of our method there are three key contributions that
enable us to model highly realistic dynamics and better generalization
capabilities than state-of-the-art methods, while training on the same data.
First, a novel motion descriptor that disentangles the standard pose
representation by removing subject-specific features; second, a
neural-network-based recurrent regressor that generalizes to unseen shapes and
motions; and third, a highly efficient nonlinear deformation subspace capable
of representing soft-tissue deformations of arbitrary shapes. We demonstrate
qualitative and quantitative improvements over existing methods and,
additionally, we show the robustness of our method on a variety of motion
capture databases.
- Abstract(参考訳): 本稿では,身体形状と運動の関数として,リアルなソフトトイップダイナミクスをモデル化する学習ベース手法であるsoftsmplを提案する。
このようなタスクを学習するためのデータセットは少なく、生成コストがかかるため、トレーニングモデルが過度に適合しやすくなる。
提案手法のコアには3つの重要なコントリビューションがあり、同じデータをトレーニングしながら、高度に現実的なダイナミクスをモデル化し、最先端の手法よりも優れた一般化能力を実現できる。
第1に、主観的な特徴を除去して標準ポーズ表現を歪ませる新しい動き記述子、第2に、目に見えない形状や動きに一般化するニューラルネットベースのリカレント回帰子、第3に、任意の形状の軟形状変形を表現できる高効率な非線形変形部分空間。
本研究では,既存の手法に対する質的,定量的な改善を示すとともに,各種モーションキャプチャデータベース上でのロバスト性を示す。
関連論文リスト
- Physics-Informed Machine Learning for Seismic Response Prediction OF
Nonlinear Steel Moment Resisting Frame Structures [6.483318568088176]
PiML法は、非線形構造の地震応答をモデル化するためのディープニューラルネットワークに科学的原理と物理法則を取り入れている。
モデル順序の低減は、固有冗長性を持つ構造系の処理とモデル効率の向上に不可欠である。
運動方程式は系の非線形性を学ぶために操作され、物理的に解釈可能な結果の中で解空間を閉じる。
論文 参考訳(メタデータ) (2024-02-28T02:16:03Z) - Make-A-Shape: a Ten-Million-scale 3D Shape Model [55.34451258972251]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - Dynamic Point Fields [30.029872787758705]
本稿では,明示的な点ベースグラフィックスの表現的利点と暗黙的な変形ネットワークを組み合わせた動的点場モデルを提案する。
我々は,その表現力,学習効率,および配布外小説のポーズに対する堅牢性の観点から,我々の動的点場フレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-04-05T17:52:37Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - SNUG: Self-Supervised Neural Dynamic Garments [14.83072352654608]
本研究では,パラメトリックな人体が着る衣服の動的3次元変形を自己指導的に学習する手法を提案する。
これにより、動的変形や細かいしわを含むインタラクティブな衣服のモデルを、トレーニング時間に2桁の速度で学習することができる。
論文 参考訳(メタデータ) (2022-04-05T13:50:21Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Constructing Neural Network-Based Models for Simulating Dynamical
Systems [59.0861954179401]
データ駆動モデリングは、真のシステムの観測からシステムの力学の近似を学ぼうとする代替パラダイムである。
本稿では,ニューラルネットワークを用いた動的システムのモデル構築方法について検討する。
基礎的な概要に加えて、関連する文献を概説し、このモデリングパラダイムが克服すべき数値シミュレーションから最も重要な課題を概説する。
論文 参考訳(メタデータ) (2021-11-02T10:51:42Z) - Dynamical Deep Generative Latent Modeling of 3D Skeletal Motion [15.359134407309726]
本モデルでは,高度に相関した骨格データを時間的変化の空間的基礎の集合に分解する。
これにより、3次元ポーズデータのダイナミックスにおいて意味のある内在状態を解析する動的深部生成潜在モデルが得られる。
論文 参考訳(メタデータ) (2021-06-18T23:58:49Z) - Context-aware Dynamics Model for Generalization in Model-Based
Reinforcement Learning [124.9856253431878]
グローバルなダイナミクスモデルを学習するタスクを,(a)ローカルなダイナミクスをキャプチャするコンテキスト潜在ベクトルを学習し,(b)次に条件付き状態を予測するという2つの段階に分割する。
本研究では,コンテキスト潜在ベクトルに動的情報をエンコードするために,コンテキスト潜在ベクトルを前方と後方の両方のダイナミクスを予測するのに役立つような新しい損失関数を導入する。
提案手法は,既存のRL方式と比較して,様々なシミュレーションロボットや制御タスクの一般化能力に優れる。
論文 参考訳(メタデータ) (2020-05-14T08:10:54Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。