論文の概要: Deep Deformation Detail Synthesis for Thin Shell Models
- arxiv url: http://arxiv.org/abs/2102.11541v1
- Date: Tue, 23 Feb 2021 08:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:49:58.770252
- Title: Deep Deformation Detail Synthesis for Thin Shell Models
- Title(参考訳): 薄殻モデルにおける深部変形詳細合成
- Authors: Lan Chen, Lin Gao, Jie Yang, Shibiao Xu, Juntao Ye, Xiaopeng Zhang,
Yu-Kun Lai
- Abstract要約: 物理ベースの布アニメーションでは、高価な計算リソースと巨大な労働調整のコストで豊富な折り畳みと詳細なしわが達成されます。
我々は,低分解能メッシュから詳細なメッシュへのマッピングを学ぶために,時間的および空間的に整合可能な変形表現(ts-acap)と変形変換ネットワークを開発した。
提案手法は, 物理シミュレーションより1035倍高速で, 既存の手法よりも高精度な合成能力を有する, 様々なフレームレートで, 信頼性の高いリアルなアニメーションを作成できる。
- 参考スコア(独自算出の注目度): 47.442883859643004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In physics-based cloth animation, rich folds and detailed wrinkles are
achieved at the cost of expensive computational resources and huge labor
tuning. Data-driven techniques make efforts to reduce the computation
significantly by a database. One type of methods relies on human poses to
synthesize fitted garments which cannot be applied to general cloth. Another
type of methods adds details to the coarse meshes without such restrictions.
However, existing works usually utilize coordinate-based representations which
cannot cope with large-scale deformation, and requires dense vertex
correspondences between coarse and fine meshes. Moreover, as such methods only
add details, they require coarse meshes to be close to fine meshes, which can
be either impossible, or require unrealistic constraints when generating fine
meshes. To address these challenges, we develop a temporally and spatially
as-consistent-as-possible deformation representation (named TS-ACAP) and a
DeformTransformer network to learn the mapping from low-resolution meshes to
detailed ones. This TS-ACAP representation is designed to ensure both spatial
and temporal consistency for sequential large-scale deformations from cloth
animations. With this representation, our DeformTransformer network first
utilizes two mesh-based encoders to extract the coarse and fine features,
respectively. To transduct the coarse features to the fine ones, we leverage
the Transformer network that consists of frame-level attention mechanisms to
ensure temporal coherence of the prediction. Experimental results show that our
method is able to produce reliable and realistic animations in various datasets
at high frame rates: 10 ~ 35 times faster than physics-based simulation, with
superior detail synthesis abilities than existing methods.
- Abstract(参考訳): 物理ベースの布アニメーションでは、高価な計算リソースと巨大な労働調整のコストで豊富な折り畳みと詳細なしわが達成されます。
データ駆動技術により、データベースによる計算を大幅に削減します。
一般的な布には当てはまらない着物を合成するために、人間のポーズに依存する方法がある。
別のタイプのメソッドは、そのような制限なしに粗いメッシュに詳細を追加する。
しかし、既存の作品は通常、大規模な変形に対応できない座標に基づく表現を使い、粗いメッシュと細かいメッシュの間の密接な頂点対応を必要とする。
さらに、これらのメソッドは詳細のみを追加するため、粗いメッシュを細いメッシュに近づける必要があり、これは不可能か、細いメッシュを生成する際に非現実的な制約を必要とする可能性がある。
これらの課題に対処するため,我々は,低解像度メッシュから詳細なメッシュへのマッピングを学ぶために,時間的かつ空間的に一貫性のある変形表現(ts-acap)とデフォームトランスフォーマネットワークを開発した。
このTS-ACAP表現は、布のアニメーションから連続した大規模変形に対する空間的および時間的整合性を保証するように設計されている。
この表現により、DeformTransformerネットワークは、まず2つのメッシュベースのエンコーダを使用して、粗い特徴と細かな特徴を抽出する。
粗い特徴を微細なものに伝達するために,フレームレベルの注意機構からなるトランスネットワークを利用して,予測の時間的コヒーレンスを確保する。
本手法は, 物理シミュレーションの10~35倍の速度で, 従来の手法よりも詳細合成能力に優れ, 高いフレームレートで, 信頼性と現実的なアニメーションを様々なデータセットで生成できることを示した。
関連論文リスト
- Ultron: Enabling Temporal Geometry Compression of 3D Mesh Sequences using Temporal Correspondence and Mesh Deformation [2.0914328542137346]
既存の3Dモデル圧縮手法は主に静的モデルに焦点を当てており、フレーム間情報を考慮していない。
本稿では,時間的対応とメッシュ変形を用いた任意のトポロジでメッシュ列を圧縮する方法を提案する。
論文 参考訳(メタデータ) (2024-09-08T16:34:19Z) - Shape Conditioned Human Motion Generation with Diffusion Model [0.0]
本研究では,メッシュ形式での運動系列生成を可能にする形状条件付き運動拡散モデル(SMD)を提案する。
また、スペクトル領域内の時間的依存関係を活用するためのスペクトル・テンポラルオートエンコーダ(STAE)を提案する。
論文 参考訳(メタデータ) (2024-05-10T19:06:41Z) - Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - DeepFracture: A Generative Approach for Predicting Brittle Fractures [2.7669937245634757]
本稿では, 現実的な脆性破壊アニメーションと剛体シミュレーションをシームレスに融合させる新しい学習手法を提案する。
本手法は, BEM脆性破壊シミュレーションを用いて, 所定の形状の破壊パターンと衝突条件を作成する。
以上の結果から,本手法は既存の技術と比較して,より詳細な脆性骨折を生じさせる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-20T08:15:13Z) - Dynamic Frame Interpolation in Wavelet Domain [57.25341639095404]
ビデオフレームは、より流動的な視覚体験のためにフレームレートを上げることができる、重要な低レベルな計算ビジョンタスクである。
既存の手法は、高度なモーションモデルと合成ネットワークを利用することで大きな成功を収めた。
WaveletVFIは、同様の精度を維持しながら最大40%の計算を削減できるため、他の最先端技術に対してより効率的に処理できる。
論文 参考訳(メタデータ) (2023-09-07T06:41:15Z) - Compressible-composable NeRF via Rank-residual Decomposition [21.92736190195887]
ニューラル・ラジアンス・フィールド(NeRF)は、3Dオブジェクトやシーンをリアルにレンダリングするための魅力的な方法として登場した。
本稿では,モデルの効率的かつ便利な操作を可能にするニューラル表現を提案する。
提案手法は,圧縮と合成の余分な能力を実現しつつ,最先端の手法に匹敵するレンダリング品質を実現することができる。
論文 参考訳(メタデータ) (2022-05-30T06:18:59Z) - Predicting Loose-Fitting Garment Deformations Using Bone-Driven Motion
Networks [63.596602299263935]
本稿では,骨駆動型モーションネットワークを用いて,ゆるやかな衣服メッシュの変形を対話的に予測する学習アルゴリズムを提案する。
提案手法は,メッシュ変形の予測精度を約20%,ハウスドルフ距離とSTEDで約10%向上させる。
論文 参考訳(メタデータ) (2022-05-03T07:54:39Z) - Learning Skeletal Articulations with Neural Blend Shapes [57.879030623284216]
あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
論文 参考訳(メタデータ) (2021-05-06T05:58:13Z) - Perceptron Synthesis Network: Rethinking the Action Scale Variances in
Videos [48.57686258913474]
ビデオアクション認識は、固定サイズの3Dカーネルを積み重ねたCNNによって部分的に解決されている。
データから最適なスケールのカーネルを学習することを提案する。
固定サイズのカーネルの袋からカーネルを生成するために,テキスト分割パーセプトロンシンセサイザーを提案する。
論文 参考訳(メタデータ) (2020-07-22T14:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。