論文の概要: CARoL: Context-aware Adaptation for Robot Learning
- arxiv url: http://arxiv.org/abs/2506.07006v1
- Date: Sun, 08 Jun 2025 06:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.624326
- Title: CARoL: Context-aware Adaptation for Robot Learning
- Title(参考訳): CARoL:ロボット学習のためのコンテキスト認識適応
- Authors: Zechen Hu, Tong Xu, Xuesu Xiao, Xuan Wang,
- Abstract要約: 本稿では,ロボット学習のためのコンテキスト認識適応法(CARoL)を提案する。
CARoLは、システム力学における状態遷移を分析してコンテキスト認識を導入し、新しいタスクと事前知識の類似性を識別する。
シミュレーションされたロボットプラットフォームと地上車両の両方におけるCARoLの効率性と一般化性を検証する。
- 参考スコア(独自算出の注目度): 12.068046643461525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using Reinforcement Learning (RL) to learn new robotic tasks from scratch is often inefficient. Leveraging prior knowledge has the potential to significantly enhance learning efficiency, which, however, raises two critical challenges: how to determine the relevancy of existing knowledge and how to adaptively integrate them into learning a new task. In this paper, we propose Context-aware Adaptation for Robot Learning (CARoL), a novel framework to efficiently learn a similar but distinct new task from prior knowledge. CARoL incorporates context awareness by analyzing state transitions in system dynamics to identify similarities between the new task and prior knowledge. It then utilizes these identified similarities to prioritize and adapt specific knowledge pieces for the new task. Additionally, CARoL has a broad applicability spanning policy-based, value-based, and actor-critic RL algorithms. We validate the efficiency and generalizability of CARoL on both simulated robotic platforms and physical ground vehicles. The simulations include CarRacing and LunarLander environments, where CARoL demonstrates faster convergence and higher rewards when learning policies for new tasks. In real-world experiments, we show that CARoL enables a ground vehicle to quickly and efficiently adapt policies learned in simulation to smoothly traverse real-world off-road terrain.
- Abstract(参考訳): 強化学習(RL)を使用して、スクラッチから新しいロボットタスクを学習することは、しばしば非効率である。
事前知識の活用は学習効率を著しく向上させる可能性があるが、既存の知識の関連性を決定する方法と、それらを新しいタスクに適応的に統合する方法の2つの重要な課題を提起する。
本稿では,ロボット学習のためのコンテキスト認識適応(CARoL)を提案する。
CARoLは、システム力学における状態遷移を分析してコンテキスト認識を導入し、新しいタスクと事前知識の類似性を識別する。
次に、これらの識別された類似性を利用して、新しいタスクのために特定の知識部品を優先順位付けし、適応します。
加えて、CARoLはポリシーベース、価値ベース、アクタークリティカルなRLアルゴリズムにまたがる幅広い適用性を持っている。
シミュレーションされたロボットプラットフォームと地上車両の両方におけるCARoLの効率性と一般化性を検証する。
シミュレーションにはCarRacingとLunarLander環境が含まれており、新しいタスクのポリシーを学ぶ際に、CARoLはより高速な収束とより高い報酬を示す。
実世界の実験では,CARoLにより,シミュレーションで学習したポリシーを迅速かつ効率的に適用し,現実世界のオフロード地形をスムーズに横切ることができることを示す。
関連論文リスト
- ReLIC: A Recipe for 64k Steps of In-Context Reinforcement Learning for Embodied AI [44.77897322913095]
エンボディエージェントのためのテキスト内強化学習のための新しい手法であるReLICを提案する。
Relicでは、エージェントは64,000ステップのコンテキスト内エクスペリエンスを使用して、新しい環境に適応することができる。
Relicは、専門家によるデモンストレーションでトレーニングを受けなくても、数発の模倣学習が可能であることに気付きました。
論文 参考訳(メタデータ) (2024-10-03T17:58:11Z) - Mission-driven Exploration for Accelerated Deep Reinforcement Learning with Temporal Logic Task Specifications [11.010530034121224]
本稿では,学習速度を大幅に向上させる新しいQ-ラーニングアルゴリズムを提案する。
サンプル効率の向上は、ミッションが成功に寄与する可能性のある方向への探索を優先する、ミッション駆動の探査戦略に由来する。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - Bridging the Sim-to-Real Gap from the Information Bottleneck Perspective [38.845882541261645]
ヒストリカル・インフォメーション・ボトルネック(HIB)と呼ばれる新しい特権知識蒸留法を提案する。
HIBは、変化可能な動的情報を取得することによって、歴史的軌道から特権的な知識表現を学習する。
シミュレーションと実世界の両方のタスクに関する実証実験は、HIBが従来の方法と比較して一般化性を向上させることを示した。
論文 参考訳(メタデータ) (2023-05-29T07:51:00Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Skill-based Meta-Reinforcement Learning [65.31995608339962]
本研究では,長期的スパース・リワードタスクにおけるメタラーニングを実現する手法を提案する。
私たちの中核となる考え方は、メタ学習中にオフラインデータセットから抽出された事前経験を活用することです。
論文 参考訳(メタデータ) (2022-04-25T17:58:19Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Deep Surrogate Q-Learning for Autonomous Driving [17.30342128504405]
本稿では,自律運転における車線変更行動学習のためのSurrogate Q-learningを提案する。
このアーキテクチャは、Scene-centric Experience Replayと呼ばれる新しいリプレイサンプリング技術に繋がることを示す。
また,本手法は実高Dデータセット上のポリシーを学習することで,実世界のRLシステムの適用性を向上させる。
論文 参考訳(メタデータ) (2020-10-21T19:49:06Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Meta-Reinforcement Learning Robust to Distributional Shift via Model
Identification and Experience Relabeling [126.69933134648541]
本稿では,テスト時にアウト・オブ・ディストリビューション・タスクに直面した場合に,効率よく外挿できるメタ強化学習アルゴリズムを提案する。
我々の手法は単純な洞察に基づいており、動的モデルが非政治データに効率的かつ一貫して適応可能であることを認識している。
論文 参考訳(メタデータ) (2020-06-12T13:34:46Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。