論文の概要: Learning with Language-Guided State Abstractions
- arxiv url: http://arxiv.org/abs/2402.18759v2
- Date: Wed, 6 Mar 2024 15:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 17:13:29.859182
- Title: Learning with Language-Guided State Abstractions
- Title(参考訳): 言語誘導状態抽象化による学習
- Authors: Andi Peng, Ilia Sucholutsky, Belinda Z. Li, Theodore R. Sumers, Thomas
L. Griffiths, Jacob Andreas, Julie A. Shah
- Abstract要約: 高次元観測空間における一般化可能なポリシー学習は、よく設計された状態表現によって促進される。
我々の手法であるLGAは、自然言語の監視と言語モデルからの背景知識を組み合わせて、目に見えないタスクに適した状態表現を自動構築する。
シミュレーションされたロボットタスクの実験では、LGAは人間によって設計されたものと同様の状態抽象化をもたらすが、そのほんの少しの時間で得られる。
- 参考スコア(独自算出の注目度): 58.199148890064826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a framework for using natural language to design state
abstractions for imitation learning. Generalizable policy learning in
high-dimensional observation spaces is facilitated by well-designed state
representations, which can surface important features of an environment and
hide irrelevant ones. These state representations are typically manually
specified, or derived from other labor-intensive labeling procedures. Our
method, LGA (language-guided abstraction), uses a combination of natural
language supervision and background knowledge from language models (LMs) to
automatically build state representations tailored to unseen tasks. In LGA, a
user first provides a (possibly incomplete) description of a target task in
natural language; next, a pre-trained LM translates this task description into
a state abstraction function that masks out irrelevant features; finally, an
imitation policy is trained using a small number of demonstrations and
LGA-generated abstract states. Experiments on simulated robotic tasks show that
LGA yields state abstractions similar to those designed by humans, but in a
fraction of the time, and that these abstractions improve generalization and
robustness in the presence of spurious correlations and ambiguous
specifications. We illustrate the utility of the learned abstractions on mobile
manipulation tasks with a Spot robot.
- Abstract(参考訳): 模倣学習のための状態抽象化を設計するために自然言語を使用するためのフレームワークについて述べる。
高次元の観測空間における一般化されたポリシー学習は、適切に設計された状態表現によって促進される。
これらの状態表現は、通常手動で指定されるか、他の労働集約的なラベル付け手順に由来する。
提案手法であるlga(language-guided abstraction)は自然言語の監督と言語モデル(lms)からの背景知識を組み合わせて,未認識のタスクに合わせた状態表現を自動的に構築する。
LGAでは、ユーザはまず、自然言語で対象タスクの(おそらく不完全な)記述を提供する。次に、事前訓練されたLMは、このタスク記述を、無関係な特徴を隠蔽する状態抽象関数に変換し、最後に、少数のデモとLGA生成抽象状態を用いて模倣ポリシーを訓練する。
シミュレーションされたロボットタスクの実験では、LGAは人間によって設計されたものに似た状態抽象化をもたらすが、そのごく一部で、これらの抽象化は素早い相関や曖昧な仕様の存在下での一般化と堅牢性を改善する。
本稿では,スポットロボットを用いた移動操作タスクにおける学習抽象化の有用性について述べる。
関連論文リスト
- VisualPredicator: Learning Abstract World Models with Neuro-Symbolic Predicates for Robot Planning [86.59849798539312]
本稿では,記号的・神経的知識表現の強みを組み合わせた一階抽象言語Neuro-Symbolic Predicatesを提案する。
提案手法は, サンプルの複雑さの向上, 分布外一般化の強化, 解釈可能性の向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T16:11:05Z) - Learning Planning Abstractions from Language [28.855381137615275]
本稿では,シーケンシャルな意思決定領域における状態と行動の抽象化を学習するためのフレームワークを提案する。
言語からの抽象化(PARL)を計画する我々のフレームワークは、言語アノテーションによる実演を利用して、象徴的で抽象的なアクション空間を自動的に発見する。
論文 参考訳(メタデータ) (2024-05-06T21:24:22Z) - Preference-Conditioned Language-Guided Abstraction [24.626805570296064]
我々は、人間の振る舞いが世界を見る方法を明らかにするのを観察する。
本研究では,行動の変化が生じたという知識を前提として,言語モデル(LM)を用いてこれらの嗜好を直接クエリする手法を提案する。
本研究では,シミュレーション実験,ユーザスタディ,モバイル操作タスクを行う実際のSpotロボット上で,効果的な嗜好条件抽象化を構築するためのフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2024-02-05T15:12:15Z) - Object-Centric Instruction Augmentation for Robotic Manipulation [29.491990994901666]
我々は,高度にセマンティックで情報に富んだ言語命令を位置情報で拡張するために,textitObject-Centric Instruction Augmentation (OCI)フレームワークを導入する。
MLLM(Multi-modal Large Language Model)を用いて,オブジェクト位置の知識を自然言語に織り込む。
我々は,ロボットマニピュレータの模倣政策が,従来の言語指導にのみ依存する者よりも優れていることを実証した。
論文 参考訳(メタデータ) (2024-01-05T13:54:45Z) - AbsPyramid: Benchmarking the Abstraction Ability of Language Models with a Unified Entailment Graph [62.685920585838616]
抽象能力は人間の知性において必須であり、言語モデルでは未探索のままである。
本稿では、抽象知識の221Kテキスト記述を統一したエンテーメントグラフであるAbsPyramidを提案する。
論文 参考訳(メタデータ) (2023-11-15T18:11:23Z) - ARNOLD: A Benchmark for Language-Grounded Task Learning With Continuous
States in Realistic 3D Scenes [72.83187997344406]
ARNOLDは、現実的な3Dシーンにおける連続状態による言語によるタスク学習を評価するベンチマークである。
ARNOLDは、オブジェクト状態の理解と継続的な目標のための学習ポリシーを含む8つの言語条件のタスクで構成されている。
論文 参考訳(メタデータ) (2023-04-09T21:42:57Z) - Semantic Exploration from Language Abstractions and Pretrained
Representations [23.02024937564099]
効果的な探究は強化学習(RL)の課題である
意味論的に意味のある状態抽象化を用いて新規性を定義する。
自然画像キャプションデータセットに基づく視覚言語表現の評価を行った。
論文 参考訳(メタデータ) (2022-04-08T17:08:00Z) - LISA: Learning Interpretable Skill Abstractions from Language [85.20587800593293]
言語条件による実演から多種多様な解釈可能なスキルを学習できる階層型模倣学習フレームワークを提案する。
本手法は, 逐次的意思決定問題において, 言語に対するより自然な条件付け方法を示す。
論文 参考訳(メタデータ) (2022-02-28T19:43:24Z) - A Persistent Spatial Semantic Representation for High-level Natural
Language Instruction Execution [54.385344986265714]
本稿では,言語行動とロボット行動のギャップを埋めるために,永続的な空間意味表現法を提案する。
一般的なステップバイステップ命令を完全に回避しながら、ALFREDベンチマークに対する我々のアプローチを評価し、最先端の結果を得る。
論文 参考訳(メタデータ) (2021-07-12T17:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。