論文の概要: Zero-Shot Learning of Text Adventure Games with Sentence-Level Semantics
- arxiv url: http://arxiv.org/abs/2004.02986v1
- Date: Mon, 6 Apr 2020 20:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:46:27.225753
- Title: Zero-Shot Learning of Text Adventure Games with Sentence-Level Semantics
- Title(参考訳): 文レベルセマンティックスを用いたテキストアドベンチャーゲームのゼロショット学習
- Authors: Xusen Yin and Jonathan May
- Abstract要約: 本稿では,ニューラルネットワークアーキテクチャと新しいSiamese Q-value関数を組み込んだ,アメニブルな深層Q-ラーニングのための新しいモデルを提案する。
ゼロショットテキストベースのアドベンチャーゲーム学習の文脈でモデルを評価する。
本モデルでは, ベースラインの収束性能点に到達し, イテレーションの15%しか必要とせず, ベースラインよりも15%高い収束性能点に到達し, 微調整の必要なく, 未知の非関連ゲームをプレイすることができる。
- 参考スコア(独自算出の注目度): 22.535033105490594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning algorithms such as Q-learning have shown great promise
in training models to learn the optimal action to take for a given system
state; a goal in applications with an exploratory or adversarial nature such as
task-oriented dialogues or games. However, models that do not have direct
access to their state are harder to train; when the only state access is via
the medium of language, this can be particularly pronounced. We introduce a new
model amenable to deep Q-learning that incorporates a Siamese neural network
architecture and a novel refactoring of the Q-value function in order to better
represent system state given its approximation over a language channel. We
evaluate the model in the context of zero-shot text-based adventure game
learning. Extrinsically, our model reaches the baseline's convergence
performance point needing only 15% of its iterations, reaches a convergence
performance point 15% higher than the baseline's, and is able to play unseen,
unrelated games with no fine-tuning. We probe our new model's representation
space to determine that intrinsically, this is due to the appropriate
clustering of different linguistic mediation into the same state.
- Abstract(参考訳): q-learningのような強化学習アルゴリズムは、与えられたシステム状態、すなわちタスク指向の対話やゲームのような探索的または敵対的な性質を持つアプリケーションにおいて、最適なアクションを学ぶための訓練モデルにおいて大きな期待を示してきた。
しかし、その状態に直接アクセスできないモデルは訓練が困難であり、唯一の状態アクセスが言語媒体経由である場合、これは特に発音される可能性がある。
本稿では,言語チャネル上での近似からシステム状態をよりよく表現するために,SiameseニューラルネットワークアーキテクチャとQ値関数の新たなリファクタリングを取り入れた,深層Q学習に適した新しいモデルを提案する。
ゼロショットテキストベースのアドベンチャーゲーム学習の文脈でモデルを評価する。
極端に、我々のモデルは、そのイテレーションの15%しか必要としないベースラインの収束性能点に達し、ベースラインよりも15%高い収束性能点に達し、微調整なしで、目に見えない無関係のゲームをすることができる。
新しいモデルの表現空間を調査して,本質的に異なる言語調停を同一の状態に適切にクラスタリングすることによるものであると判断した。
関連論文リスト
- Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - ANNA: Enhanced Language Representation for Question Answering [5.713808202873983]
事前学習モデルでは,各アプローチが個別にパフォーマンスにどう影響するかを示し,そのアプローチが共同で検討されている。
本稿では,事前学習タスクの拡張と,近隣のトークンにもっと参加して,事前学習言語モデリングのコンテキストの豊かさを把握できる新しい近隣認識機構を提案する。
我々の最良のモデルは、SQuAD 1.1上で95.7% F1と90.6% EMの新たな最先端結果を実現し、RoBERTa、ALBERT、ELECTRA、XLNetといった既存のトレーニング済み言語モデルよりも優れている。
論文 参考訳(メタデータ) (2022-03-28T05:26:52Z) - Investigating Effect of Dialogue History in Multilingual Task Oriented
Dialogue Systems [2.695466667982714]
2021年12月までに、世界で最も人気のあるスマートスピーカーの1つであるAlexaは、9つの異なる言語をサポートすることができる。
他の言語での仮想アシスタントのトレーニングは、特に低リソース言語では、しばしば困難である。
我々は多言語タスク指向対話システムのための効率的かつ効果的な学習ソリューションを考案する。
論文 参考訳(メタデータ) (2021-12-23T02:27:10Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。