論文の概要: MimicKit: A Reinforcement Learning Framework for Motion Imitation and Control
- arxiv url: http://arxiv.org/abs/2510.13794v1
- Date: Wed, 15 Oct 2025 17:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.798682
- Title: MimicKit: A Reinforcement Learning Framework for Motion Imitation and Control
- Title(参考訳): MimicKit: モーション模倣と制御のための強化学習フレームワーク
- Authors: Xue Bin Peng,
- Abstract要約: MimicKitは、モーション模倣と強化学習を使用してモーションコントローラをトレーニングするためのオープンソースのフレームワークである。
一般的なモーションアニメーション技術とRLアルゴリズムの実装を提供する。
- 参考スコア(独自算出の注目度): 11.381250963626735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MimicKit is an open-source framework for training motion controllers using motion imitation and reinforcement learning. The codebase provides implementations of commonly-used motion-imitation techniques and RL algorithms. This framework is intended to support research and applications in computer graphics and robotics by providing a unified training framework, along with standardized environment, agent, and data structures. The codebase is designed to be modular and easily configurable, enabling convenient modification and extension to new characters and tasks. The open-source codebase is available at: https://github.com/xbpeng/MimicKit.
- Abstract(参考訳): MimicKitは、モーション模倣と強化学習を使用してモーションコントローラをトレーニングするためのオープンソースのフレームワークである。
このコードベースは、一般的に使われているモーションアニメーション技術とRLアルゴリズムの実装を提供する。
このフレームワークは、標準化された環境、エージェント、データ構造とともに統一的なトレーニングフレームワークを提供することで、コンピュータグラフィックスとロボティクスの研究と応用をサポートすることを意図している。
コードベースはモジュール化され、簡単に構成できるように設計されており、新しい文字やタスクへの便利な修正と拡張を可能にしている。
オープンソースのコードベースは、https://github.com/xbpeng/MimicKit.comで公開されている。
関連論文リスト
- GEM: A Gym for Agentic LLMs [88.36970707762424]
General Experience Maker (GEM) は、大規模言語モデル(LLM)の時代に設計されたオープンソースの環境シミュレータである。
GEMは、高スループットのための非同期ベクトル化実行を含む環境エージェントインタフェースの標準化されたフレームワークを提供する。
GEMを用いてPPO,GRPO,REINFORCEのアップル・ツー・アップル・ベンチマークを行い,アルゴリズム設計に光を当てる。
論文 参考訳(メタデータ) (2025-10-01T15:55:57Z) - EasySteer: A Unified Framework for High-Performance and Extensible LLM Steering [55.56674028743782]
大規模言語モデル(LLM)のステアリングは、推論時にモデル動作を制御するための有望なパラダイムとして登場した。
我々は,vLLM上に構築された高性能LLMステアリングのための統合フレームワークであるEasySteerを提案する。
論文 参考訳(メタデータ) (2025-09-29T17:59:07Z) - LEARN: A Unified Framework for Multi-Task Domain Adapt Few-Shot Learning [49.34200199155883]
3つの異なるタスクにまたがる数ショットの学習設定にドメイン適応を組み合わせた最初の統合フレームワークを提案する。
私たちのフレームワークは高度にモジュール化されており、ドメイン適応を伴わずに、数ショットの学習をサポートすることができます。
論文 参考訳(メタデータ) (2024-12-20T17:16:15Z) - MeMo: Meaningful, Modular Controllers via Noise Injection [25.541496793132183]
新たなロボットが同じパーツから構築された場合,モジュール型コントローラを再利用することで,その制御を迅速に学習できることが示される。
私たちはMeMoと呼ばれるフレームワークでこれを実現し、Meは(Me)有界で(Mo)有界なコントローラーを学習します。
我々は,ロボット形態変化の簡易化を目標として,移動環境と把握環境の枠組みをベンチマークした。
論文 参考訳(メタデータ) (2024-05-24T18:39:20Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Orbit: A Unified Simulation Framework for Interactive Robot Learning
Environments [38.23943905182543]
NVIDIA Isaac Simによるロボット学習のための統一的でモジュール化されたフレームワークOrbitを紹介する。
写真リアリスティックなシーンと高忠実度剛性で変形可能なボディシミュレーションを備えたロボット環境を構築するためのモジュラーデザインを提供する。
我々は,表現学習,強化学習,模倣学習,タスク・アンド・モーション・プランニングなど,さまざまな研究領域を支援することを目的としている。
論文 参考訳(メタデータ) (2023-01-10T20:19:17Z) - VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse [77.52012928882928]
INDOORKITはNVIDIA OMNIVERSEの組み込みツールキットである。
屋内シーンビルディング、シーンランダム化、アニメーションコントロールのための柔軟なパイプラインを提供する。
論文 参考訳(メタデータ) (2022-06-23T17:53:33Z) - skrl: Modular and Flexible Library for Reinforcement Learning [0.0]
skrlはPythonで書かれた強化学習のためのオープンソースのモジュールライブラリである。
NVIDIA Isaac Gym環境のロード、設定、操作を可能にする。
論文 参考訳(メタデータ) (2022-02-08T12:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。