論文の概要: Neural Cloth Simulation
- arxiv url: http://arxiv.org/abs/2212.11220v1
- Date: Tue, 13 Dec 2022 16:05:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 02:43:32.953520
- Title: Neural Cloth Simulation
- Title(参考訳): ニューラル布シミュレーション
- Authors: Hugo Bertiche, Meysam Madadi and Sergio Escalera
- Abstract要約: 本稿では,物理シミュレーションにインスパイアされた教師なしディープラーニングによる衣料アニメーション問題の枠組みを提案する。
現実的な布のダイナミクスを教師なしで学習できる最初の手法を提案する。
また,予測における動きのレベルを制御できることも示している。
- 参考スコア(独自算出の注目度): 41.42019559241777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a general framework for the garment animation problem through
unsupervised deep learning inspired in physically based simulation. Existing
trends in the literature already explore this possibility. Nonetheless, these
approaches do not handle cloth dynamics. Here, we propose the first methodology
able to learn realistic cloth dynamics unsupervisedly, and henceforth, a
general formulation for neural cloth simulation. The key to achieve this is to
adapt an existing optimization scheme for motion from simulation based
methodologies to deep learning. Then, analyzing the nature of the problem, we
devise an architecture able to automatically disentangle static and dynamic
cloth subspaces by design. We will show how this improves model performance.
Additionally, this opens the possibility of a novel motion augmentation
technique that greatly improves generalization. Finally, we show it also allows
to control the level of motion in the predictions. This is a useful, never seen
before, tool for artists. We provide of detailed analysis of the problem to
establish the bases of neural cloth simulation and guide future research into
the specifics of this domain.
- Abstract(参考訳): 本稿では,物理シミュレーションに触発された教師なし深層学習による衣服アニメーション問題に対する一般的な枠組みを提案する。
現存する文献の傾向は既にこの可能性を探求している。
しかしながら、これらの手法は布の力学を扱わない。
本稿では,神経布シミュレーションのための一般的な定式化法として,教師なしで現実的な布のダイナミックスを学習できる最初の手法を提案する。
これを実現するための鍵は、シミュレーションに基づく手法からディープラーニングへ、既存の動きの最適化スキームを適用することである。
そして,問題の性質を解析し,静的および動的布地部分空間を設計により自動的に切り離すことができるアーキテクチャを考案した。
これがモデルパフォーマンスをどのように改善するかを示します。
さらに、これは一般化を大幅に改善する新しい動き増強技術の可能性を開く。
最後に、予測における動きのレベルを制御できることも示します。
これはアーティストにとって、これまで見たことのない便利なツールだ。
本稿では,ニューラルネットワークシミュレーションの基礎となる課題を詳細に分析し,その領域の具体性について今後の研究を導く。
関連論文リスト
- GauSim: Registering Elastic Objects into Digital World by Gaussian Simulator [55.02281855589641]
GauSimは、ガウスカーネルを通して表現される現実の弾性物体の動的挙動をキャプチャするために設計された、ニューラルネットワークベースの新しいシミュレータである。
我々は連続体力学を活用し、各カーネルを連続体としてモデル化し、理想化された仮定なしに現実的な変形を考慮に入れた。
ガウシムは質量や運動量保存などの明示的な物理制約を取り入れ、解釈可能な結果と堅牢で物理的に妥当なシミュレーションを確実にする。
論文 参考訳(メタデータ) (2024-12-23T18:58:17Z) - Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Neural Material Adaptor for Visual Grounding of Intrinsic Dynamics [48.99021224773799]
本稿では,既存の物理法則を学習的補正と統合するニューラルネットワーク (NeuMA) を提案する。
また,粒子駆動型3次元ガウス平滑化モデルであるParticle-GSを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:43:36Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - A Physics-embedded Deep Learning Framework for Cloth Simulation [6.8806198396336935]
本稿では,布地シミュレーションの物理特性を直接エンコードする物理組込み学習フレームワークを提案する。
このフレームワークは、従来のシミュレータやサブニューラルネットワークを通じて、外部の力や衝突処理と統合することもできる。
論文 参考訳(メタデータ) (2024-03-19T15:21:00Z) - Neural Foundations of Mental Simulation: Future Prediction of Latent
Representations on Dynamic Scenes [3.2744507958793143]
我々は、目標駆動型モデリングアプローチと高密度神経生理学的データと人間の行動的読み出しを組み合わせることで、この問題を阻害する。
具体的には,豊かで倫理的に関連のある環境の将来の状態を予測するために,知覚認知ネットワークのいくつかのクラスを構築し,評価する。
これらのモデルクラス間での強い差別化は、さまざまな環境内と環境内の両方で、神経的および行動的データを予測できる能力である。
論文 参考訳(メタデータ) (2023-05-19T15:56:06Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Learning Visible Connectivity Dynamics for Cloth Smoothing [17.24004979796887]
本稿では,部分点雲観測から粒子動力学モデルを学ぶことを提案する。
部分観測可能性の課題を克服するため, 基盤となる布網上にどの可視点が接続されているのかを推定する。
提案手法は,従来のモデルベースおよびモデルフリー強化学習法をシミュレーションで大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-21T15:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。