論文の概要: CLoSD: Closing the Loop between Simulation and Diffusion for multi-task character control
- arxiv url: http://arxiv.org/abs/2410.03441v1
- Date: Fri, 4 Oct 2024 13:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 22:19:23.237272
- Title: CLoSD: Closing the Loop between Simulation and Diffusion for multi-task character control
- Title(参考訳): CLoSD:マルチタスク文字制御のためのシミュレーションと拡散のループを閉じる
- Authors: Guy Tevet, Sigal Raab, Setareh Cohan, Daniele Reda, Zhengyi Luo, Xue Bin Peng, Amit H. Bermano, Michiel van de Panne,
- Abstract要約: 物理シミュレーションのための運動拡散モデルと強化学習に基づく制御は、人間の運動生成に相補的な強みを持つ。
CLoSDはテキスト駆動のRL物理ベースのコントローラで、様々なタスクの拡散生成によって導かれる。
CLoSDは、目標地点へのナビゲーション、テキストプロンプトで指定された手や足で物体を打つこと、座ること、立ち上がることなど、さまざまなタスクをシームレスに実行することができる。
- 参考スコア(独自算出の注目度): 27.418288450778192
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Motion diffusion models and Reinforcement Learning (RL) based control for physics-based simulations have complementary strengths for human motion generation. The former is capable of generating a wide variety of motions, adhering to intuitive control such as text, while the latter offers physically plausible motion and direct interaction with the environment. In this work, we present a method that combines their respective strengths. CLoSD is a text-driven RL physics-based controller, guided by diffusion generation for various tasks. Our key insight is that motion diffusion can serve as an on-the-fly universal planner for a robust RL controller. To this end, CLoSD maintains a closed-loop interaction between two modules -- a Diffusion Planner (DiP), and a tracking controller. DiP is a fast-responding autoregressive diffusion model, controlled by textual prompts and target locations, and the controller is a simple and robust motion imitator that continuously receives motion plans from DiP and provides feedback from the environment. CLoSD is capable of seamlessly performing a sequence of different tasks, including navigation to a goal location, striking an object with a hand or foot as specified in a text prompt, sitting down, and getting up. https://guytevet.github.io/CLoSD-page/
- Abstract(参考訳): 物理シミュレーションのための運動拡散モデルと強化学習(RL)に基づく制御は、人間の運動生成に相補的な強みを持つ。
前者はテキストなどの直感的な制御に固執し、後者は物理的にもっともらしい動きと環境との直接的な相互作用を提供する。
本研究では,それぞれの強みを組み合わせた手法を提案する。
CLoSDはテキスト駆動のRL物理ベースのコントローラで、様々なタスクの拡散生成によって導かれる。
我々の重要な洞察は、動きの拡散がロバストなRLコントローラのためのオンザフライユニバーサルプランナーとして機能するということである。
この目的のために、CLoSDは、Diffusion Planner(DiP)とトラッキングコントローラという、2つのモジュール間のクローズドループインタラクションを維持している。
DiPはテキストのプロンプトとターゲット位置によって制御される高速応答型自己回帰拡散モデルであり、コントローラはシンプルで堅牢な動作模倣器であり、DiPからの動作計画を継続的に受信し、環境からのフィードバックを提供する。
CLoSDは、目標地点へのナビゲーション、テキストプロンプトで指定された手や足で物体を打つこと、座ること、立ち上がることなど、さまざまなタスクをシームレスに実行することができる。
https://guytevet.github.io/CLoSD-page/
関連論文リスト
- MOFA-Video: Controllable Image Animation via Generative Motion Field Adaptions in Frozen Image-to-Video Diffusion Model [78.11258752076046]
MOFA-Videoは、様々な制御可能な信号を用いて、所定の画像から映像を生成する高度な制御可能な画像アニメーション手法である。
ビデオ生成パイプラインの動作を制御するために,複数のドメイン対応モーションフィールドアダプタを設計する。
トレーニングの後、異なるドメインのMOFA-Adaptersは、より制御可能なビデオ生成のために協力することもできる。
論文 参考訳(メタデータ) (2024-05-30T16:22:22Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - A comparison of RL-based and PID controllers for 6-DOF swimming robots:
hybrid underwater object tracking [8.362739554991073]
本稿では,PIDコントローラの代替として,集中型深層Q-network(DQN)コントローラを用いた調査と評価を行う。
我々の主な焦点は、この遷移を水中物体追跡の特定のケースで説明することに集中している。
本実験は,Unityをベースとしたシミュレータで実施し,分離したPIDコントローラ上での集中型RLエージェントの有効性を検証した。
論文 参考訳(メタデータ) (2024-01-29T23:14:15Z) - TLControl: Trajectory and Language Control for Human Motion Synthesis [68.09806223962323]
本稿では,人間のリアルな動き合成のための新しい手法であるTLControlを提案する。
低レベルのTrajectoryと高レベルのLanguage semanticsコントロールが組み込まれている。
インタラクティブで高品質なアニメーション生成には実用的である。
論文 参考訳(メタデータ) (2023-11-28T18:54:16Z) - End-to-End Reinforcement Learning for Torque Based Variable Height
Hopping [5.34772724436823]
足の移動は自然または非構造地形を扱うのに最も適しており、多用途であることは間違いない。
本稿では,ジャンプ位相を暗黙的に検出するエンド・ツー・エンドのRL型トルクコントローラを提案する。
また、学習した制御器がリッチな動的タスクに接触できるように、シミュレーション手法を拡張し、ロボットへの展開を成功させる。
論文 参考訳(メタデータ) (2023-07-31T13:51:29Z) - MotionGPT: Finetuned LLMs Are General-Purpose Motion Generators [108.67006263044772]
本稿では,マルチモーダル制御信号を利用するMotionGPT(Motion General-Purpose generaTor)を提案する。
まず,マルチモーダル制御信号を離散符号に量子化し,それらを統一的なプロンプト命令で定式化する。
我々のMotionGPTは、LLMパラメータのわずか0.4%をチューニングすることで、マルチモーダル制御信号を用いた統一された人の動き生成モデルを示す。
論文 参考訳(メタデータ) (2023-06-19T12:58:17Z) - Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory
Diffusion [83.88829943619656]
本研究では,現実的な歩行者軌跡生成手法と,ユーザ定義目標を達成するために制御可能なフルボディアニメーションを提案する。
我々のガイド付き拡散モデルでは,対象とする経路,速度,特定社会集団による軌道の制約が可能である。
本稿では,アニメーションコントローラのRLトレーニング中に学習した値関数を用いて,拡散を誘導し,特定のシナリオに適した軌道を生成することを提案する。
論文 参考訳(メタデータ) (2023-04-04T15:46:42Z) - Temporally Layered Architecture for Adaptive, Distributed and Continuous
Control [2.1700103865910503]
本稿では,時間適応型分散制御システムTLAについて述べる。
TLAは、テンポラリな抽象化を実現するために、高速で遅いコントローラを階層化し、各レイヤが異なる時間スケールに集中できるようにします。
私たちのデザインは生物学的にインスパイアされ、環境の要求に応じて異なる時間スケールで行動を実行する人間の脳のアーキテクチャに基づいています。
論文 参考訳(メタデータ) (2022-12-25T08:46:22Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。