論文の概要: KiRAS: Keyframe Guided Self-Imitation for Robust and Adaptive Skill Learning in Quadruped Robots
- arxiv url: http://arxiv.org/abs/2603.15179v1
- Date: Mon, 16 Mar 2026 12:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.862785
- Title: KiRAS: Keyframe Guided Self-Imitation for Robust and Adaptive Skill Learning in Quadruped Robots
- Title(参考訳): KiRAS:四足歩行ロボットにおけるロバスト・アダプティブスキル学習のためのキーフレームガイド型セルフイミテーション
- Authors: Xiaoyi Wei, Peng Zhai, Jiaxin Tu, Yueqi Zhang, Yuqi Li, Zonghao Zhang, Hu Zhou, Lihua Zhang,
- Abstract要約: 我々は、ロバスト・アダプティブスキル学習(KiRAS)のためのKeyframe Guided Self-Imitationを提案する。
KiRASは複雑な地形における多様なスキルプリミティブの獲得と移行のためのエンドツーエンドフレームワークである。
Solo-8とUnitree Go1ロボットの実験では、KiRASは困難な地形を横断する堅牢なスキル獲得とスムーズな移行を可能にしている。
- 参考スコア(独自算出の注目度): 35.668496532035185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With advances in reinforcement learning and imitation learning, quadruped robots can acquire diverse skills within a single policy by imitating multiple skill-specific datasets. However, the lack of datasets on complex terrains limits the ability of such multi-skill policies to generalize effectively in unstructured environments. Inspired by animation, we adopt keyframes as minimal and universal skill representations, relaxing dataset constraints and enabling the integration of terrain adaptability with skill diversity. We propose Keyframe Guided Self-Imitation for Robust and Adaptive Skill Learning (KiRAS), an end-to-end framework for acquiring and transitioning between diverse skill primitives on complex terrains. KiRAS first learns diverse skills on flat terrain through keyframe-guided self-imitation, eliminating the need for expert datasets; then continues training the same policy network on rough terrains to enhance robustness. To eliminate catastrophic forgetting, a proficiency-based Skill Initialization Technique is introduced. Experiments on Solo-8 and Unitree Go1 robots show that KiRAS enables robust skill acquisition and smooth transitions across challenging terrains. This framework demonstrates its potential as a lightweight platform for multi-skill generation and dataset collection. It further enables flexible skill transitions that enhance locomotion on challenging terrains.
- Abstract(参考訳): 強化学習と模倣学習の進歩により、四足ロボットは複数のスキル固有のデータセットを模倣することにより、単一のポリシー内で多様なスキルを習得することができる。
しかし、複雑な地形におけるデータセットの欠如は、そのようなマルチスキルポリシーが非構造化環境で効果的に一般化する能力を制限している。
アニメーションにインスパイアされた私たちは、キーフレームを最小限の普遍的なスキル表現として採用し、データセットの制約を緩和し、地形適応性とスキル多様性の統合を可能にしました。
複雑な地形における多様なスキルプリミティブの獲得と移行のためのエンドツーエンドフレームワークであるKeyframe Guided Self-Imitation for Robust and Adaptive Skill Learning (KiRAS)を提案する。
KiRASはまず、キーフレーム誘導による自己シミュレーションを通じて平坦な地形に関する多様なスキルを学び、専門家のデータセットを必要としない。
破滅的な忘れをなくすため、熟練度に基づくスキル初期化技術を導入する。
Solo-8とUnitree Go1ロボットの実験により、KiRASは困難な地形を横断する堅牢なスキル獲得とスムーズな移行を可能にしている。
このフレームワークは、マルチスキル生成とデータセット収集のための軽量プラットフォームとしての可能性を示している。
さらに、フレキシブルなスキル移行を可能にし、挑戦的な地形上での移動を促進する。
関連論文リスト
- Uni-Skill: Building Self-Evolving Skill Repository for Generalizable Robotic Manipulation [32.86306309089796]
Uni-Skillはスキル中心のフレームワークで、スキル対応のプランニングをサポートする。
既存のスキルが不十分な場合、新しいスキル実装に対するUni-Skillリクエスト。
Skillは、大規模な非構造化ロボットビデオから派生したVerbNetにインスパイアされたリポジトリだ。
論文 参考訳(メタデータ) (2026-03-03T05:49:37Z) - SkillNet: Create, Evaluate, and Connect AI Skills [159.47504178122156]
SkillNetは、大規模にAIスキルを作成し、評価し、組織化するように設計されたオープンインフラストラクチャである。
私たちのインフラストラクチャは、20万を超えるスキルのリポジトリ、インタラクティブなプラットフォーム、多目的Pythonツールキットを統合しています。
論文 参考訳(メタデータ) (2026-02-26T14:24:02Z) - LodeStar: Long-horizon Dexterity via Synthetic Data Augmentation from Human Demonstrations [20.300415135664718]
ロングホライゾン操作タスクは、物理的なデキスタリティと操作スキルのシームレスなシークエンシングの両方を必要とする。
本稿では,タスクのデモンストレーションを意味的に意味のあるスキルに自動的に分解する学習フレームワークとシステムLodeStarを提案する。
提案手法は,従来のベースラインに比べてタスク性能とロバスト性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-24T22:57:16Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - CACTI: A Framework for Scalable Multi-Task Multi-Scene Visual Imitation
Learning [33.88636835443266]
キッチン環境におけるマルチタスク・マルチシーンロボット操作のレンズ下でのロボット学習のスケールアップのためのフレームワークを提案する。
CACTIという名前のフレームワークは,データ収集,データ拡張,視覚表現学習,模倣ポリシートレーニングの4つの段階を別々に扱う。
CACTIフレームワークでは、拡張段階の一部として、画像生成に最先端モデルを適用する利点を強調している。
論文 参考訳(メタデータ) (2022-12-12T05:30:08Z) - Versatile Skill Control via Self-supervised Adversarial Imitation of
Unlabeled Mixed Motions [19.626042478612572]
ラベルのないデータセットから制御可能なスキルセットを用いて多目的ポリシーを得るための協調的敵意的手法を提案する。
生成的模倣学習の枠組みにおいて教師なしのスキル発見を活用することで、新規で有用なスキルが実現し、タスク遂行が成功することを示す。
最後に、得られた多目的ポリシーは、Solo 8と呼ばれるアジャイル四足歩行ロボットでテストされ、デモで符号化された多様なスキルを忠実に再現する。
論文 参考訳(メタデータ) (2022-09-16T12:49:04Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。