論文の概要: Language-Conditioned Goal Generation: a New Approach to Language
Grounding for RL
- arxiv url: http://arxiv.org/abs/2006.07043v1
- Date: Fri, 12 Jun 2020 09:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 01:57:02.216824
- Title: Language-Conditioned Goal Generation: a New Approach to Language
Grounding for RL
- Title(参考訳): 言語定義ゴール生成:RLのための言語接地への新しいアプローチ
- Authors: C\'edric Colas, Ahmed Akakzia, Pierre-Yves Oudeyer, Mohamed Chetouani,
Olivier Sigaud
- Abstract要約: 現実の世界では、言語エージェントも具体的エージェントであり、それらは物理的な世界で知覚され、作用する。
本稿では,ゴールジェネレータの条件付けに言語を用いることを提案する。目標条件を考慮すれば,エージェントに対して言語に依存しない目標を生成するために,言語条件付きゴールジェネレータを訓練することができる。
- 参考スコア(独自算出の注目度): 23.327749767424567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the real world, linguistic agents are also embodied agents: they perceive
and act in the physical world. The notion of Language Grounding questions the
interactions between language and embodiment: how do learning agents connect or
ground linguistic representations to the physical world ? This question has
recently been approached by the Reinforcement Learning community under the
framework of instruction-following agents. In these agents, behavioral policies
or reward functions are conditioned on the embedding of an instruction
expressed in natural language. This paper proposes another approach: using
language to condition goal generators. Given any goal-conditioned policy, one
could train a language-conditioned goal generator to generate language-agnostic
goals for the agent. This method allows to decouple sensorimotor learning from
language acquisition and enable agents to demonstrate a diversity of behaviors
for any given instruction. We propose a particular instantiation of this
approach and demonstrate its benefits.
- Abstract(参考訳): 現実世界では、言語エージェントも具体化され、物理的な世界で知覚され、作用する。
言語接地の概念は、言語と具体化の相互作用に疑問を呈する: 学習エージェントは物理的な世界と言語表現をどう結び付けるか、あるいは接地するか?
この質問は、最近、インストラクションフォローエージェントの枠組みの下で強化学習コミュニティからアプローチされている。
これらのエージェントでは、自然言語で表現された命令の埋め込みに行動ポリシーまたは報酬関数が条件付けられる。
本稿では,言語を用いたゴール生成手法を提案する。
目標条件付きポリシーがあれば、言語条件付きゴールジェネレータをトレーニングして、エージェントの言語に依存しない目標を生成することができる。
この方法では、感覚運動学習を言語習得から切り離し、エージェントが任意の命令に対する行動の多様性を示すことができる。
このアプローチの特定のインスタンス化を提案し、その利点を実証する。
関連論文リスト
- Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Learning to Model the World with Language [100.76069091703505]
人間と対話し、世界で行動するためには、エージェントは人々が使用する言語の範囲を理解し、それを視覚の世界に関連付ける必要がある。
私たちのキーとなるアイデアは、エージェントが将来を予測するのに役立つ信号として、このような多様な言語を解釈すべきである、ということです。
我々は、将来のテキストや画像表現を予測するマルチモーダル世界モデルを学ぶエージェントであるDynalangでこれをインスタンス化する。
論文 参考訳(メタデータ) (2023-07-31T17:57:49Z) - Simple Embodied Language Learning as a Byproduct of Meta-Reinforcement
Learning [56.07190845063208]
具体的強化学習(RL)エージェントは、非言語タスクから間接的に言語を学習できるか?
エージェントが特定のオフィスを見つけることを目標とするオフィスナビゲーション環境を設計し、異なる建物(タスク)でオフィスロケーションが異なる。
我々は、RLエージェントが言語を間接的に学習できることを発見した。現在のメタRLアルゴリズムで訓練されたエージェントは、ホールドアウトレイアウトと言語フレーズでフロアプランを読むことに成功している。
論文 参考訳(メタデータ) (2023-06-14T09:48:48Z) - Learning to Solve Voxel Building Embodied Tasks from Pixels and Natural
Language Instructions [53.21504989297547]
本研究では,Minecraftのような環境下でのオブジェクト構築作業において,言語モデルと強化学習を組み合わせた新しい手法を提案する。
提案手法は,まず命令から一貫した達成可能なサブゴールのセットを生成し,学習済みのRLポリシーで関連するサブタスクを完了させる。
論文 参考訳(メタデータ) (2022-11-01T18:30:42Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - ReferentialGym: A Nomenclature and Framework for Language Emergence &
Grounding in (Visual) Referential Games [0.30458514384586394]
自然言語は、人間が情報を伝達し、共通の目標に向けて協力するための強力なツールである。
計算言語学者は、言語ゲームによって引き起こされる人工言語の出現を研究している。
AIコミュニティは、言語の出現と、より優れたヒューマンマシンインターフェースに向けた基礎研究を開始した。
論文 参考訳(メタデータ) (2020-12-17T10:22:15Z) - Inverse Reinforcement Learning with Natural Language Goals [8.972202854038382]
言語条件付きポリシーと報酬関数を学習するための新しい逆強化学習アルゴリズムを提案する。
提案アルゴリズムは,視覚に基づく自然言語によるデータセットの学習において,複数のベースラインをはるかに上回る性能を示した。
論文 参考訳(メタデータ) (2020-08-16T14:43:49Z) - Grounding Language to Autonomously-Acquired Skills via Goal Generation [23.327749767424567]
言語条件付きRLに対する新しい概念的アプローチ:LGB(Language-Goal-Behavior Architecture)を提案する。
LGBは、世界の中間的な意味表現を通じて、スキル学習と言語基盤を分離する。
本稿では,物体間の空間的関係を記述した本質的な意味表現を具現化した,本質的な動機づけ型学習エージェントDECSTRを提案する。
論文 参考訳(メタデータ) (2020-06-12T13:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。