論文の概要: VAL: Interactive Task Learning with GPT Dialog Parsing
- arxiv url: http://arxiv.org/abs/2310.01627v1
- Date: Mon, 2 Oct 2023 20:45:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 18:58:44.477539
- Title: VAL: Interactive Task Learning with GPT Dialog Parsing
- Title(参考訳): VAL: GPTダイアログ解析による対話型タスク学習
- Authors: Lane Lawley, Christopher J. MacLellan
- Abstract要約: 大規模言語モデル(LLM)は脆性に耐性があるが、解釈不可能であり、漸進的に学習することはできない。
LLM/シンボリック統合のための新しい哲学を持つIPLシステムであるVALを提案する。
ゲーム環境におけるVALのユーザインタラクションについて検討し,VALが自然であると感じた言語を用いて,ほとんどのユーザがVALを学べることを発見した。
- 参考スコア(独自算出の注目度): 3.0960577808508156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning often requires millions of examples to produce static,
black-box models. In contrast, interactive task learning (ITL) emphasizes
incremental knowledge acquisition from limited instruction provided by humans
in modalities such as natural language. However, in practice, ITL systems often
suffers from brittle, error-prone language parsing. Large language models
(LLMs) are resistant to brittleness but are not interpretable and cannot learn
incrementally. We present VAL, an ITL system with a new philosophy for
LLM/symbolic integration. By using LLMs only for specific tasks -- such as
predicate and argument selection -- within an algorithmic framework, VAL reaps
the benefits of LLMs to support interactive learning of hierarchical task
knowledge from natural language. Acquired knowledge is human interpretable and
generalizes to support execution of novel tasks without additional training. We
studied users' interactions with VAL in a video game setting, finding that most
users could successfully teach VAL using language they felt was natural.
- Abstract(参考訳): 強化学習はしばしば、静的なブラックボックスモデルを作成するために何百万もの例を必要とする。
対照的に、対話型タスク学習(ITL)は、自然言語などのモダリティにおいて人間によって提供される限られた命令から、段階的な知識獲得を強調する。
しかし、実際には、itlシステムはしばしば不安定でエラーを起こしやすい言語解析に苦しむ。
大規模言語モデル(LLM)は脆性に耐性があるが、解釈不可能であり、漸進的に学習することはできない。
LLM/シンボリック統合のための新しい哲学を持つIPLシステムであるVALを提案する。
アルゴリズムフレームワーク内で述語や引数選択などの特定のタスクにのみllmを使用することで、valは自然言語からの階層的タスク知識のインタラクティブな学習をサポートするためにllmの利点を享受する。
獲得した知識は人間の解釈可能であり、追加のトレーニングなしで新しいタスクの実行をサポートするために一般化される。
ゲーム環境におけるVALのユーザインタラクションについて検討し,VALが自然であると感じた言語を用いて,ほとんどのユーザがVALを学べることを発見した。
関連論文リスト
- Chatbots in Knowledge-Intensive Contexts: Comparing Intent and LLM-Based
Systems [9.982795366770086]
認知アシスタント(CA)は、知識集約的なタスクにおいて、ヒューマンワーカーにコンテキスト認識のサポートを提供する。
自然言語処理(NLP)の最近の進歩により、CAはより柔軟で人間的な方法で会話できるようになる。
LLMベースのCAは、インテントベースのシステムよりも優れたユーザエクスペリエンス、タスク完了率、ユーザビリティ、認識パフォーマンスを示した。
論文 参考訳(メタデータ) (2024-02-07T15:39:07Z) - Probing Structured Semantics Understanding and Generation of Language
Models via Question Answering [56.610044062739256]
本研究では,人間が構築した形式言語を用いて質問応答のタスクにおいて,大規模言語モデルが構造化意味論に対処する能力について検討する。
異なる大きさのモデルと異なる形式言語を用いた実験は、今日の最先端のLLMの論理形式に対する理解が全体的な人間レベルにアプローチできることを示している。
結果は、モデルが異なる形式言語にかなり敏感であることを示している。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Coupling Large Language Models with Logic Programming for Robust and
General Reasoning from Text [5.532477732693001]
大規模言語モデルは, 意味論的に非常に効果的な数ショットとして機能することを示す。
自然言語文を論理形式に変換し、応答集合プログラムの入力として機能する。
本手法は,bAbI, StepGame, CLUTRR, gSCAN など,いくつかのベンチマークにおいて最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-15T03:29:59Z) - IERL: Interpretable Ensemble Representation Learning -- Combining
CrowdSourced Knowledge and Distributed Semantic Representations [11.008412414253662]
大言語モデル(LLM)は、単語の意味を分散意味論の形でエンコードする。
近年の研究では、LLMは意図しない、一貫性のない、あるいは間違ったテキストを出力として生成する傾向があることが示されている。
本稿では,LLMとクラウドソースの知識表現を体系的に組み合わせた新しいアンサンブル学習手法であるInterpretable Ensemble Representation Learning (IERL)を提案する。
論文 参考訳(メタデータ) (2023-06-24T05:02:34Z) - InstructAlign: High-and-Low Resource Language Alignment via Continual
Crosslingual Instruction Tuning [66.31509106146605]
命令を調整した大規模言語モデル(LLM)は、様々なタスクや言語で顕著な能力を示している。
しかし、利用可能なデータが不足しているため、表現不足の言語に一般化する能力は限られている。
InstructAlignは、LLMが新しい未知の言語を学習済みの高リソース言語と整列できるようにするために、連続的なクロスリンガル命令チューニングを使用する。
論文 参考訳(メタデータ) (2023-05-23T02:51:34Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - LISA: Learning Interpretable Skill Abstractions from Language [85.20587800593293]
言語条件による実演から多種多様な解釈可能なスキルを学習できる階層型模倣学習フレームワークを提案する。
本手法は, 逐次的意思決定問題において, 言語に対するより自然な条件付け方法を示す。
論文 参考訳(メタデータ) (2022-02-28T19:43:24Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。