論文の概要: Pre-Trained Language Models for Interactive Decision-Making
- arxiv url: http://arxiv.org/abs/2202.01771v1
- Date: Thu, 3 Feb 2022 18:55:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 13:31:11.947560
- Title: Pre-Trained Language Models for Interactive Decision-Making
- Title(参考訳): 対話型意思決定のための事前学習言語モデル
- Authors: Shuang Li, Xavier Puig, Yilun Du, Clinton Wang, Ekin Akyurek, Antonio
Torralba, Jacob Andreas, Igor Mordatch
- Abstract要約: 目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
- 参考スコア(独自算出の注目度): 72.77825666035203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language model (LM) pre-training has proven useful for a wide variety of
language processing tasks, but can such pre-training be leveraged for more
general machine learning problems? We investigate the effectiveness of language
modeling to scaffold learning and generalization in autonomous decision-making.
We describe a framework for imitation learning in which goals and observations
are represented as a sequence of embeddings, and translated into actions using
a policy network initialized with a pre-trained transformer LM. We demonstrate
that this framework enables effective combinatorial generalization across
different environments, such as VirtualHome and BabyAI. In particular, for test
tasks involving novel goals or novel scenes, initializing policies with
language models improves task completion rates by 43.6% in VirtualHome. We
hypothesize and investigate three possible factors underlying the effectiveness
of LM-based policy initialization. We find that sequential representations (vs.
fixed-dimensional feature vectors) and the LM objective (not just the
transformer architecture) are both important for generalization. Surprisingly,
however, the format of the policy inputs encoding (e.g. as a natural language
string vs. an arbitrary sequential encoding) has little influence. Together,
these results suggest that language modeling induces representations that are
useful for modeling not just language, but also goals and plans; these
representations can aid learning and generalization even outside of language
processing.
- Abstract(参考訳): 言語モデル(lm)事前学習は、さまざまな言語処理タスクに有用であることが証明されているが、より一般的な機械学習の問題に活用できるのだろうか?
自律的意思決定における足場学習と一般化に対する言語モデリングの有効性について検討する。
本稿では,目標と観察を埋め込みのシーケンスとして表現し,事前学習されたトランスフォーマーlmで初期化したポリシネットワークを用いて行動に翻訳する模倣学習の枠組みについて述べる。
このフレームワークは,VirtualHomeやBabyAIなど,さまざまな環境における効率的な組合せ一般化を可能にする。
特に、新しいゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはVirtualHomeのタスク完了率を43.6%改善する。
我々は,lm-based policy initializationの有効性の3つの要因を仮定し,検討した。
逐次表現 (v. 固定次元特徴ベクトル) と lm 目的 (トランスフォーマーアーキテクチャだけでなく) はともに一般化に重要である。
しかし、驚くべきことに、ポリシー入力エンコーディングのフォーマット(例えば、自然言語文字列と任意のシーケンシャルエンコーディング)は、ほとんど影響しない。
これらの結果は、言語モデリングが言語だけでなく、目標や計画もモデル化するのに有用な表現を誘導することを示しており、これらの表現は言語処理の外部においても学習と一般化を支援することができる。
関連論文リスト
- Language Models are Universal Embedders [48.12992614723464]
事前学習されたトランスフォーマーデコーダは、限定的な英語データに基づいて微調整された場合、普遍的に埋め込み可能であることを示す。
我々のモデルは、最小限のトレーニングデータにより、異なる埋め込みタスクにおける競争性能を達成する。
これらの結果は、強力な統合インバータを構築するための有望な道の証となる。
論文 参考訳(メタデータ) (2023-10-12T11:25:46Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Unsupervised Improvement of Factual Knowledge in Language Models [4.5788796239850225]
マスケッド言語モデリングは、大規模言語モデルの事前訓練において重要な役割を果たす。
本稿では,様々な知識集約型タスクにおいて,言語モデルの性能を向上させる方法として,事前学習に影響を与えるアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T07:37:06Z) - An Overview on Language Models: Recent Developments and Outlook [32.528770408502396]
従来の言語モデル(CLM)は、因果的に言語シーケンスの確率を予測することを目的としている。
事前学習言語モデル(PLM)はより広範な概念をカバーし、因果逐次モデリングと下流アプリケーションのための微調整の両方に使用することができる。
論文 参考訳(メタデータ) (2023-03-10T07:55:00Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Pre-training Universal Language Representation [46.51685959045527]
この研究は普遍言語表現学習、すなわち、一様ベクトル空間に非常に多様な長さを持つ言語単位やテキストの異なるレベルの埋め込みを導入している。
我々は、よく設計された事前学習スキームが、効果的に普遍的な言語表現をもたらすことを実証的に検証する。
論文 参考訳(メタデータ) (2021-05-30T09:29:01Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。