論文の概要: Efficient Differentiable Simulation of Articulated Bodies
- arxiv url: http://arxiv.org/abs/2109.07719v1
- Date: Thu, 16 Sep 2021 04:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 16:25:20.333772
- Title: Efficient Differentiable Simulation of Articulated Bodies
- Title(参考訳): 人工身体の効率的な微分可能シミュレーション
- Authors: Yi-Ling Qiao, Junbang Liang, Vladlen Koltun, and Ming C. Lin
- Abstract要約: 本稿では, 音素の効率的な微分可能シミュレーション法を提案する。
これにより、ボディダイナミクスを深層学習フレームワークに統合することが可能になる。
提案手法を用いて, 調音システムによる強化学習を高速化できることを示す。
- 参考スコア(独自算出の注目度): 89.64118042429287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for efficient differentiable simulation of articulated
bodies. This enables integration of articulated body dynamics into deep
learning frameworks, and gradient-based optimization of neural networks that
operate on articulated bodies. We derive the gradients of the forward dynamics
using spatial algebra and the adjoint method. Our approach is an order of
magnitude faster than autodiff tools. By only saving the initial states
throughout the simulation process, our method reduces memory requirements by
two orders of magnitude. We demonstrate the utility of efficient differentiable
dynamics for articulated bodies in a variety of applications. We show that
reinforcement learning with articulated systems can be accelerated using
gradients provided by our method. In applications to control and inverse
problems, gradient-based optimization enabled by our work accelerates
convergence by more than an order of magnitude.
- Abstract(参考訳): 本稿では,関節物体の効率的な微分シミュレーション手法を提案する。
これにより、articulated body dynamicsのディープラーニングフレームワークへの統合と、articulated body上で動作するニューラルネットワークの勾配ベース最適化が可能になる。
空間代数と随伴法を用いてフォワードダイナミクスの勾配を導出する。
私たちのアプローチはAutodiffツールよりも桁違いに高速です。
シミュレーションプロセスを通じて初期状態だけを保存することにより、メモリ要求を2桁減らすことができる。
種々の応用において, 音節体に対する効率的な微分力学の有用性を実証する。
本手法では, 調音システムによる強化学習を, 勾配を用いて高速化できることを示す。
制御および逆問題への応用において、我々の研究によって実現された勾配に基づく最適化は1桁以上の収束を加速する。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Improving Gradient Computation for Differentiable Physics Simulation
with Contacts [10.450509067356148]
接触による剛体シミュレーションについて検討した。
連続衝突検出による勾配計算の改善とTOI(Time-of-Ipact)の利用を提案する。
そこで,TOI-Veでは,解析解と一致する最適制御系列を学習できることを示す。
論文 参考訳(メタデータ) (2023-04-28T21:10:16Z) - Differentiable Simulation of Soft Multi-body Systems [99.4302215142673]
我々は、Projective Dynamics内でトップダウン行列アセンブリアルゴリズムを開発する。
筋肉,関節トルク,空気圧管によって駆動される軟口蓋体に対して,異なる制御機構を導出する。
論文 参考訳(メタデータ) (2022-05-03T20:03:22Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Half-Inverse Gradients for Physical Deep Learning [25.013244956897832]
異なる物理シミュレータをトレーニングプロセスに統合することは、結果の質を大幅に向上させる。
勾配に基づく解法は、多くの物理過程の固有の性質であるスケールと方向を操作できるため、勾配流に深い影響を与える。
本研究では,この現象に苦しむことのない新しい手法を導出するために,物理・ニューラルネットワーク最適化の特性を解析する。
論文 参考訳(メタデータ) (2022-03-18T19:11:04Z) - Physical Gradients for Deep Learning [101.36788327318669]
最先端のトレーニング技術は、物理的なプロセスに関わる多くの問題に適していないことが分かりました。
本稿では,高次最適化手法と機械学習手法を組み合わせた新しいハイブリッドトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-30T12:14:31Z) - Differentiable Implicit Soft-Body Physics [12.19631263169426]
本稿では,ニューラルネットワークを微分可能な層として構成した,微分可能なソフトボディ物理シミュレータを提案する。
状態遷移を定義するために明示的なフォワードモデルを使用する他の微分可能な物理アプローチとは対照的に、関数の最小化によって定義される暗黙的な状態遷移に焦点を当てる。
論文 参考訳(メタデータ) (2021-02-11T01:06:54Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。