論文の概要: PARC: Physics-based Augmentation with Reinforcement Learning for Character Controllers
- arxiv url: http://arxiv.org/abs/2505.04002v1
- Date: Tue, 06 May 2025 22:29:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.927722
- Title: PARC: Physics-based Augmentation with Reinforcement Learning for Character Controllers
- Title(参考訳): PARC:文字制御のための強化学習による物理に基づく拡張
- Authors: Michael Xu, Yi Shi, KangKang Yin, Xue Bin Peng,
- Abstract要約: 人間は多様な複雑な環境をナビゲートし、アジャイルなモータースキルを身につけている。
これらのアジャイルの動きをシミュレートされた文字で再現することは、モーションキャプチャデータが不足しているため、依然として困難である。
PARCは、機械学習と物理に基づくシミュレーションを利用して、動きデータセットを反復的に拡張するフレームワークである。
- 参考スコア(独自算出の注目度): 10.598333486002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans excel in navigating diverse, complex environments with agile motor skills, exemplified by parkour practitioners performing dynamic maneuvers, such as climbing up walls and jumping across gaps. Reproducing these agile movements with simulated characters remains challenging, in part due to the scarcity of motion capture data for agile terrain traversal behaviors and the high cost of acquiring such data. In this work, we introduce PARC (Physics-based Augmentation with Reinforcement Learning for Character Controllers), a framework that leverages machine learning and physics-based simulation to iteratively augment motion datasets and expand the capabilities of terrain traversal controllers. PARC begins by training a motion generator on a small dataset consisting of core terrain traversal skills. The motion generator is then used to produce synthetic data for traversing new terrains. However, these generated motions often exhibit artifacts, such as incorrect contacts or discontinuities. To correct these artifacts, we train a physics-based tracking controller to imitate the motions in simulation. The corrected motions are then added to the dataset, which is used to continue training the motion generator in the next iteration. PARC's iterative process jointly expands the capabilities of the motion generator and tracker, creating agile and versatile models for interacting with complex environments. PARC provides an effective approach to develop controllers for agile terrain traversal, which bridges the gap between the scarcity of motion data and the need for versatile character controllers.
- Abstract(参考訳): 人間は多様な複雑な環境をナビゲートし、アジャイルなモータースキルを身につけている。
これらのアジャイルの動きをシミュレートされた文字で再現することは、アジャイルな地形を横断する行動のためのモーションキャプチャデータの不足と、そのようなデータを取得するための高コストのために、依然として困難である。
本研究では,PARC(Physics-based Augmentation with Reinforcement Learning for Character Controllers)を紹介する。このフレームワークは,機械学習と物理に基づくシミュレーションを利用して,動きデータセットを反復的に拡張し,地形トラバースコントローラの機能を拡張する。
PARCは、コア地形横断技術からなる小さなデータセット上で、モーションジェネレータをトレーニングすることから始まる。
モーションジェネレータは、新しい地形を横断する合成データを生成するために使用される。
しかし、これらの生成された動きは、しばしば不正確な接触や不連続などの人工物を示す。
これらのアーティファクトを修正するため、シミュレーションの動作を模倣する物理ベースのトラッキングコントローラを訓練する。
修正されたモーションがデータセットに追加され、次のイテレーションでモーションジェネレータのトレーニングが継続される。
PARCの反復的プロセスは、モーションジェネレータとトラッカーの能力を共同で拡張し、複雑な環境と対話するためのアジャイルで汎用的なモデルを作成する。
PARCはアジャイルな地形トラバーサルのためのコントローラを開発するための効果的なアプローチを提供する。これは、モーションデータの不足と、汎用的なキャラクターコントローラの必要性の間のギャップを埋めるものだ。
関連論文リスト
- Morph: A Motion-free Physics Optimization Framework for Human Motion Generation [25.51726849102517]
我々のフレームワークは、身体的可視性を大幅に向上させながら、最先端のモーション生成品質を実現する。
テキスト・トゥ・モーション・アンド・ミュージック・トゥ・ダンス・ジェネレーション・タスクの実験は、我々のフレームワークが最先端のモーション・ジェネレーション・クオリティを達成することを示す。
論文 参考訳(メタデータ) (2024-11-22T14:09:56Z) - Sitcom-Crafter: A Plot-Driven Human Motion Generation System in 3D Scenes [90.39860012099393]
Sitcom-Crafterは3D空間における人間のモーション生成システムである。
機能生成モジュールの中心は、我々の新しい3Dシーン対応ヒューマン・ヒューマン・インタラクションモジュールである。
拡張モジュールは、コマンド生成のためのプロット理解、異なるモーションタイプのシームレスな統合のためのモーション同期を含む。
論文 参考訳(メタデータ) (2024-10-14T17:56:19Z) - Guided Decoding for Robot On-line Motion Generation and Adaption [44.959409835754634]
本稿では,ロボットアームに高い自由度を持つ新たな動作生成手法を提案する。
本研究では,実演として使用する擬似軌道の大規模データセットに基づいて,条件付き変分オートエンコーダに基づくトランスフォーマーアーキテクチャを訓練する。
本モデルでは, 異なる初期点と目標点からの運動をうまく生成し, 異なるロボットプラットフォームを横断する複雑なタスクをナビゲートする軌道を生成可能であることを示す。
論文 参考訳(メタデータ) (2024-03-22T14:32:27Z) - FLD: Fourier Latent Dynamics for Structured Motion Representation and
Learning [19.491968038335944]
本研究では,周期的・準周期的な動きの時空間関係を抽出する自己教師付き構造表現生成手法を提案する。
我々の研究は、一般的な動き表現と学習アルゴリズムの今後の進歩への新たな可能性を開く。
論文 参考訳(メタデータ) (2024-02-21T13:59:21Z) - TLControl: Trajectory and Language Control for Human Motion Synthesis [68.09806223962323]
本稿では,人間のリアルな動き合成のための新しい手法であるTLControlを提案する。
低レベルのTrajectoryと高レベルのLanguage semanticsコントロールが組み込まれている。
インタラクティブで高品質なアニメーション生成には実用的である。
論文 参考訳(メタデータ) (2023-11-28T18:54:16Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Visual CPG-RL: Learning Central Pattern Generators for Visually-Guided
Quadruped Locomotion [4.557963624437784]
視覚的に誘導された四足歩行を学習するための枠組みを提案する。
奥深い強化学習フレームワークに、外感知覚と中央パターン生成装置を統合する。
以上の結果から, CPG, 明示的インターオシレータ結合, メモリ対応ポリシ表現はエネルギー効率に有益であることが示唆された。
論文 参考訳(メタデータ) (2022-12-29T18:14:38Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。