論文の概要: CTSN: Predicting Cloth Deformation for Skeleton-based Characters with a
Two-stream Skinning Network
- arxiv url: http://arxiv.org/abs/2305.18808v1
- Date: Tue, 30 May 2023 07:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 17:52:35.933319
- Title: CTSN: Predicting Cloth Deformation for Skeleton-based Characters with a
Two-stream Skinning Network
- Title(参考訳): CTSN:2ストリームスキニングネットワークを用いた骨格型文字の布の変形予測
- Authors: Yudi Li and Min Tang and Yun Yang and Ruofeng Tong and Shuangcai Yang
and Yao Li and Bailin An and Qilong Kou
- Abstract要約: 本研究では,2ストリームネットワークを用いた骨格型文字の布の変形を予測できる新しい学習手法を提案する。
我々のアプローチで処理される文字は人間に限らず、魚やペットのような非人間的対象の骨格に基づく他の表現である。
- 参考スコア(独自算出の注目度): 11.10457709073575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel learning method to predict the cloth deformation for
skeleton-based characters with a two-stream network. The characters processed
in our approach are not limited to humans, and can be other skeletal-based
representations of non-human targets such as fish or pets. We use a novel
network architecture which consists of skeleton-based and mesh-based residual
networks to learn the coarse and wrinkle features as the overall residual from
the template cloth mesh. Our network is used to predict the deformation for
loose or tight-fitting clothing or dresses. We ensure that the memory footprint
of our network is low, and thereby result in reduced storage and computational
requirements. In practice, our prediction for a single cloth mesh for the
skeleton-based character takes about 7 milliseconds on an NVIDIA GeForce RTX
3090 GPU. Compared with prior methods, our network can generate fine
deformation results with details and wrinkles.
- Abstract(参考訳): 本稿では,2ストリームネットワークを用いた骨格型文字の布の変形予測手法を提案する。
我々のアプローチで処理されるキャラクターは人間に限らず、魚やペットのような非ヒトのターゲットの他の骨格に基づく表現にもなり得る。
我々は,スケルトンベースとメッシュベースの残差ネットワークからなる新しいネットワークアーキテクチャを用いて,テンプレート布地メッシュの残差として粗い特徴としわの特徴を学習する。
我々のネットワークは、ゆるい衣服やドレスの変形を予測するのに使われている。
我々は、ネットワークのメモリフットプリントが低く、結果としてストレージと計算要求が減少することを保証する。
実際には、スケルトンベースのキャラクタのための単一の布メッシュの予測には、NVIDIA GeForce RTX 3090 GPU上で約7ミリ秒かかります。
従来の手法と比較して,ネットワークは細部やしわで微細な変形結果を生成することができる。
関連論文リスト
- Neural Metamorphosis [72.88137795439407]
本稿では,ニューラル・メタモルファス(NeuMeta)と呼ばれる,自己変形可能なニューラルネットワークの構築を目的とした新たな学習パラダイムを提案する。
NeuMetaはニューラルネットワークの連続重み多様体を直接学習する。
75%の圧縮速度でもフルサイズの性能を維持する。
論文 参考訳(メタデータ) (2024-10-10T14:49:58Z) - SkinningNet: Two-Stream Graph Convolutional Neural Network for Skinning
Prediction of Synthetic Characters [0.8629912408966145]
SkinningNetはエンドツーエンドの2ストリームグラフニューラルネットワークアーキテクチャで、入力メッシュとその関連するスケルトンからスキンウェイトを計算する。
提案手法は,メッシュと骨格関節の最良の関係を共同で学習することで,エンドツーエンドで学習可能な方法でこれらの情報を抽出する。
論文 参考訳(メタデータ) (2022-03-09T14:26:10Z) - N-Cloth: Predicting 3D Cloth Deformation with Mesh-Based Networks [69.94313958962165]
本稿では,3次元布の変形予測のためのメッシュに基づく新しい学習手法(N-Cloth)を提案する。
グラフ畳み込みを用いて、メッシュ空間の非線形性を低減するために、布とメッシュを潜在空間に変換する。
我々のアプローチは、SMPL人間、非SMPL人間、または剛体に対応する様々な物体で、最大100ドルの三角形とシーンを持つ複雑な布メッシュを扱うことができる。
論文 参考訳(メタデータ) (2021-12-13T03:13:11Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Point-Cloud Deep Learning of Porous Media for Permeability Prediction [0.0]
デジタル画像から多孔質媒体の透過性を予測するための新しいディープラーニングフレームワークを提案する。
我々は、固体行列と細孔空間の境界を点雲としてモデル化し、それらをポイントネットアーキテクチャに基づくニューラルネットワークへの入力として供給する。
論文 参考訳(メタデータ) (2021-07-18T22:59:21Z) - Learning Skeletal Articulations with Neural Blend Shapes [57.879030623284216]
あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
論文 参考訳(メタデータ) (2021-05-06T05:58:13Z) - GarNet++: Improving Fast and Accurate Static3D Cloth Draping by
Curvature Loss [89.96698250086064]
仮想3次元体上にテンプレート布を視覚的に可視的に描画する2ストリームディープネットワークモデルを提案する。
我々のネットワークは、計算時間を桁違いに減らしながら、物理ベースシミュレーション(PBS)法を模倣することを学ぶ。
身体形状とポーズの異なる4種類の衣服の枠組みを検証した。
論文 参考訳(メタデータ) (2020-07-20T13:40:15Z) - TailorNet: Predicting Clothing in 3D as a Function of Human Pose, Shape
and Garment Style [43.99803542307155]
本稿では,3次元の衣服の変形を,ポーズ,形状,スタイルの3因子の関数として予測するニューラルネットワークであるTailorNetを提案する。
我々の仮説は、例の(非線形でも)組み合わせは、微細なしわのような高周波成分を滑らかに出すというものである。
いくつかの実験では、TailorNetは以前の作業よりも現実的な結果を生み出し、時間的に一貫性のある変形も生成している。
論文 参考訳(メタデータ) (2020-03-10T08:49:51Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。