論文の概要: BabyAI++: Towards Grounded-Language Learning beyond Memorization
- arxiv url: http://arxiv.org/abs/2004.07200v1
- Date: Wed, 15 Apr 2020 16:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 02:38:03.748469
- Title: BabyAI++: Towards Grounded-Language Learning beyond Memorization
- Title(参考訳): BabyAI++: 記憶を超えた基礎的な言語学習を目指す
- Authors: Tianshi Cao, Jingkang Wang, Yining Zhang, Sivabalan Manivasagam
- Abstract要約: 強化学習(Reinforcement Learning, RL)エージェントは、新しい動的シナリオに直面すると、依然としてタブラララザから学習する。
そこで我々はBabyAI++という新しいプラットフォームを導入し、様々な動的環境とそれに対応する記述的テキストを生成する。
実験により、記述的テキストを用いることで、様々な動的環境におけるRLエージェントの一般化が向上することを示す。
- 参考スコア(独自算出の注目度): 13.45138913186308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite success in many real-world tasks (e.g., robotics), reinforcement
learning (RL) agents still learn from tabula rasa when facing new and dynamic
scenarios. By contrast, humans can offload this burden through textual
descriptions. Although recent works have shown the benefits of instructive
texts in goal-conditioned RL, few have studied whether descriptive texts help
agents to generalize across dynamic environments. To promote research in this
direction, we introduce a new platform, BabyAI++, to generate various dynamic
environments along with corresponding descriptive texts. Moreover, we benchmark
several baselines inherited from the instruction following setting and develop
a novel approach towards visually-grounded language learning on our platform.
Extensive experiments show strong evidence that using descriptive texts
improves the generalization of RL agents across environments with varied
dynamics.
- Abstract(参考訳): 多くの現実世界のタスク(例えばロボティクス)の成功にもかかわらず、強化学習(RL)エージェントは、新しい動的シナリオに直面した時でもタトゥーララサから学習する。
対照的に、人間はテキスト記述によってこの負担を和らげることができる。
最近の研究は、目標条件付きRLにおけるインストラクティブテキストの利点を示しているが、記述テキストがエージェントが動的環境全体にわたって一般化するのに役立つかどうかの研究は少ない。
この方向の研究を促進するため、我々はBabyAI++という新しいプラットフォームを導入し、対応する記述テキストとともに様々な動的環境を生成する。
さらに,本プラットフォーム上での視覚的接地型言語学習への新しいアプローチとして,授業から受け継いだいくつかのベースラインのベンチマークを行った。
広範な実験により、記述的テキストを使用することで、様々な動的環境におけるRLエージェントの一般化が向上することを示す。
関連論文リスト
- LanGWM: Language Grounded World Model [24.86620763902546]
我々は,世界モデル学習を強化するために,言語による視覚的特徴を学習することに注力する。
提案手法は,人間とロボットの相互作用モデルを改善する可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-29T12:41:55Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [53.7168869241458]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - MaPLe: Multi-modal Prompt Learning [54.96069171726668]
本稿では,視覚と言語分岐の両方を対象としたマルチモーダル・プロンプト・ラーニング(MaPLe)を提案し,視覚と言語表現の整合性を改善する。
最先端のCo-CoOpと比較すると、MaPLeは優れた性能を示し、新規クラスでは3.45%の絶対的な向上を達成している。
論文 参考訳(メタデータ) (2022-10-06T17:59:56Z) - Improving Policy Learning via Language Dynamics Distillation [87.27583619910338]
本稿では,言語記述による実演を前提とした環境動態予測モデルであるLanguage Dynamics Distillation(LDD)を提案する。
実演における言語記述は,環境全体にわたるサンプル効率と一般化を改善することを示す。
論文 参考訳(メタデータ) (2022-09-30T19:56:04Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z) - CLEAR: Improving Vision-Language Navigation with Cross-Lingual,
Environment-Agnostic Representations [98.30038910061894]
VLN(Vision-and-Language Navigation)タスクでは、エージェントが言語命令に基づいて環境をナビゲートする必要がある。
CLEAR: 言語横断表現と環境非依存表現を提案する。
我々の言語と視覚表現は、Room-to-Room and Cooperative Vision-and-Dialogue Navigationタスクにうまく転送できる。
論文 参考訳(メタデータ) (2022-07-05T17:38:59Z) - Semantic Exploration from Language Abstractions and Pretrained
Representations [23.02024937564099]
効果的な探究は強化学習(RL)の課題である
意味論的に意味のある状態抽象化を用いて新規性を定義する。
自然画像キャプションデータセットに基づく視覚言語表現の評価を行った。
論文 参考訳(メタデータ) (2022-04-08T17:08:00Z) - VisualHints: A Visual-Lingual Environment for Multimodal Reinforcement
Learning [14.553086325168803]
テキストベースのインタラクションと視覚的ヒント(環境から得られる)を含むマルチモーダル強化学習(RL)のための新しい環境であるVisualHintsを提案する。
環境全体に散在する視覚的手がかりを付加したTextWorld調理環境の拡張について紹介する。
目標は、RLエージェントがテキストと視覚の両方を使って自然言語のアクションコマンドを予測して、食事の調理の最終タスクを解決することである。
論文 参考訳(メタデータ) (2020-10-26T18:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。