論文の概要: LISA: Learning Interpretable Skill Abstractions from Language
- arxiv url: http://arxiv.org/abs/2203.00054v1
- Date: Mon, 28 Feb 2022 19:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 13:01:40.529681
- Title: LISA: Learning Interpretable Skill Abstractions from Language
- Title(参考訳): LISA: 言語から解釈可能なスキル抽象化を学ぶ
- Authors: Divyansh Garg, Skanda Vaidyanath, Kuno Kim, Jiaming Song, Stefano
Ermon
- Abstract要約: 言語条件による実演から多種多様な解釈可能なスキルを学習できる階層型模倣学習フレームワークを提案する。
本手法は, 逐次的意思決定問題において, 言語に対するより自然な条件付け方法を示す。
- 参考スコア(独自算出の注目度): 85.20587800593293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning policies that effectually utilize language instructions in complex,
multi-task environments is an important problem in imitation learning. While it
is possible to condition on the entire language instruction directly, such an
approach could suffer from generalization issues. To encode complex
instructions into skills that can generalize to unseen instructions, we propose
Learning Interpretable Skill Abstractions (LISA), a hierarchical imitation
learning framework that can learn diverse, interpretable skills from
language-conditioned demonstrations. LISA uses vector quantization to learn
discrete skill codes that are highly correlated with language instructions and
the behavior of the learned policy. In navigation and robotic manipulation
environments, LISA is able to outperform a strong non-hierarchical baseline in
the low data regime and compose learned skills to solve tasks containing unseen
long-range instructions. Our method demonstrates a more natural way to
condition on language in sequential decision-making problems and achieve
interpretable and controllable behavior with the learned skills.
- Abstract(参考訳): 複雑なマルチタスク環境で言語命令を効果的に活用する学習方針は、模倣学習において重要な問題である。
言語命令全体を直接条件付けることは可能であるが、そのようなアプローチは一般化の問題に苦しむ可能性がある。
複雑な命令を認識不能な命令に一般化するスキルにエンコードするため,我々は,多種多様な解釈可能なスキルを言語条件付きデモンストレーションから学習できる階層的模倣学習フレームワークであるlearning interpretable skill abstractions (lisa)を提案する。
LISAはベクトル量子化を用いて、言語命令と高い相関関係を持つ離散スキルコードと学習ポリシーの振る舞いを学習する。
ナビゲーションやロボット操作環境では、LISAは低データ体制において強力な非階層的ベースラインを上回り、学習スキルを構成して、目に見えない長距離命令を含むタスクを解決することができる。
本手法は, 逐次的意思決定問題において, より自然な言語条件付け方法を示し, 学習スキルによる解釈可能な, 制御可能な動作を実現する。
関連論文リスト
- Teaching Embodied Reinforcement Learning Agents: Informativeness and Diversity of Language Use [16.425032085699698]
具体的エージェントは、人間の言語を活用して、学習タスクの明示的または暗黙的な知識を得る能力を持つことが望ましい。
タスク学習を容易にするために、リッチ言語をどのように組み込むかは明確ではない。
本稿では,強化学習における言語入力の種類について検討する。
論文 参考訳(メタデータ) (2024-10-31T17:59:52Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Interpretable Robotic Manipulation from Language [11.207620790833271]
本稿では,操作タスクに特化して設計された,Ex-PERACTという説明可能な行動クローニングエージェントを紹介する。
トップレベルでは、モデルは個別のスキルコードを学ぶことを任務とし、下位レベルでは、ポリシーネットワークは問題をボクセル化されたグリッドに変換し、離散化されたアクションをボクセルグリッドにマップする。
提案手法は,RLBenchベンチマークを用いた8つの操作課題にまたがって評価し,Ex-PERACTが競合する政策性能を達成するだけでなく,複雑な環境下でのヒューマンインストラクションとマシン実行のギャップを効果的に橋渡しすることを示した。
論文 参考訳(メタデータ) (2024-05-27T11:02:21Z) - Learning with Language-Guided State Abstractions [58.199148890064826]
高次元観測空間における一般化可能なポリシー学習は、よく設計された状態表現によって促進される。
我々の手法であるLGAは、自然言語の監視と言語モデルからの背景知識を組み合わせて、目に見えないタスクに適した状態表現を自動構築する。
シミュレーションされたロボットタスクの実験では、LGAは人間によって設計されたものと同様の状態抽象化をもたらすが、そのほんの少しの時間で得られる。
論文 参考訳(メタデータ) (2024-02-28T23:57:04Z) - Rethinking Mutual Information for Language Conditioned Skill Discovery
on Imitation Learning [36.624923972563415]
我々はLanguage Conditioned Skill Discovery (LCSD)として知られるエンドツーエンドの模倣学習手法を提案する。
ベクトル量子化を利用して離散潜在スキルを学習し、軌跡のスキルシーケンスを活用して高レベルの意味的命令を再構築する。
提案手法は,未確認タスクに対する一般化能力の向上,スキル解釈性の向上,タスク完了の成功率の向上などを示す。
論文 参考訳(メタデータ) (2024-02-27T13:53:52Z) - VAL: Interactive Task Learning with GPT Dialog Parsing [2.6207405455197827]
大規模言語モデル(LLM)は脆性に耐性があるが、解釈不可能であり、漸進的に学習することはできない。
LLM/シンボリック統合のための新しい哲学を持つIPLシステムであるVALを提案する。
ゲーム環境におけるVALのユーザインタラクションについて検討し,VALが自然であると感じた言語を用いて,ほとんどのユーザがVALを学べることを発見した。
論文 参考訳(メタデータ) (2023-10-02T20:45:41Z) - InstructAlign: High-and-Low Resource Language Alignment via Continual
Crosslingual Instruction Tuning [66.31509106146605]
命令を調整した大規模言語モデル(LLM)は、様々なタスクや言語で顕著な能力を示している。
しかし、利用可能なデータが不足しているため、表現不足の言語に一般化する能力は限られている。
InstructAlignは、LLMが新しい未知の言語を学習済みの高リソース言語と整列できるようにするために、連続的なクロスリンガル命令チューニングを使用する。
論文 参考訳(メタデータ) (2023-05-23T02:51:34Z) - PADL: Language-Directed Physics-Based Character Control [66.517142635815]
本稿では,文字が行うべきハイレベルなタスクと低レベルなスキルを指定するために,ユーザが自然言語コマンドを発行できるようにするPADLを提案する。
我々は,シミュレーションされたヒューマノイドキャラクタを効果的に誘導し,多種多様な複雑な運動能力を実現するために,本フレームワークを適用した。
論文 参考訳(メタデータ) (2023-01-31T18:59:22Z) - Ask Your Humans: Using Human Instructions to Improve Generalization in
Reinforcement Learning [32.82030512053361]
本研究では、自然言語の指示や行動軌跡の形で、ステップバイステップの人間の実演を行うことを提案する。
人間のデモは、最も複雑なタスクを解決するのに役立ちます。
また、自然言語を組み込むことで、ゼロショット設定で未確認のタスクを一般化できることがわかった。
論文 参考訳(メタデータ) (2020-11-01T14:39:46Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。