論文の概要: Document-editing Assistants and Model-based Reinforcement Learning as a
Path to Conversational AI
- arxiv url: http://arxiv.org/abs/2008.12095v1
- Date: Thu, 27 Aug 2020 13:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:26:35.410262
- Title: Document-editing Assistants and Model-based Reinforcement Learning as a
Path to Conversational AI
- Title(参考訳): 対話型AIへの道筋としての文書編集アシスタントとモデルに基づく強化学習
- Authors: Katya Kudashkina, Patrick M. Pilarski, Richard S. Sutton
- Abstract要約: 音声文書編集の領域とモデルに基づく強化学習の手法について論じる。
音声文書編集の利点は、ドメインがしっかりとスコープ化されていることと、会話をするための何かを提供することである。
言論の領域を真に理解するためには,モデルに基づく強化学習が必要である。
- 参考スコア(独自算出の注目度): 9.329553018748207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent assistants that follow commands or answer simple questions, such
as Siri and Google search, are among the most economically important
applications of AI. Future conversational AI assistants promise even greater
capabilities and a better user experience through a deeper understanding of the
domain, the user, or the user's purposes. But what domain and what methods are
best suited to researching and realizing this promise? In this article we argue
for the domain of voice document editing and for the methods of model-based
reinforcement learning. The primary advantages of voice document editing are
that the domain is tightly scoped and that it provides something for the
conversation to be about (the document) that is delimited and fully accessible
to the intelligent assistant. The advantages of reinforcement learning in
general are that its methods are designed to learn from interaction without
explicit instruction and that it formalizes the purposes of the assistant.
Model-based reinforcement learning is needed in order to genuinely understand
the domain of discourse and thereby work efficiently with the user to achieve
their goals. Together, voice document editing and model-based reinforcement
learning comprise a promising research direction for achieving conversational
AI.
- Abstract(参考訳): コマンドに従ったり、SiriやGoogle検索といった単純な質問に答えるインテリジェントアシスタントは、AIの最も経済的に重要な応用のひとつだ。
将来の会話型aiアシスタントは、ドメインやユーザ、あるいはユーザの目的をより深く理解することで、さらなる機能とより良いユーザエクスペリエンスを約束する。
しかし、この約束を研究、実現するのに最適なドメインと方法は何だろうか?
本稿では,音声文書編集の領域とモデルに基づく強化学習の手法について議論する。
音声文書編集の主な利点は、ドメインが厳密にスコープされ、会話(文書)に関するものを提供し、インテリジェントアシスタントに完全にアクセス可能であることである。
強化学習の利点は、その手法が明示的な指示なしに対話から学ぶように設計され、アシスタントの目的を形式化することである。
モデルに基づく強化学習は、会話の領域を真に理解し、ユーザーが目的を達成するために効率的に働くために必要である。
音声文書編集とモデルに基づく強化学習は、会話型AIを実現するための有望な研究方向を構成する。
関連論文リスト
- Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Build-a-Bot: Teaching Conversational AI Using a Transformer-Based Intent
Recognition and Question Answering Architecture [15.19996462016215]
本稿では、自然言語パイプラインを用いて、独自の学校カリキュラムに基づく質問に答えるためにカスタマイズされたモデルを訓練することで、人工知能の原理を学習するためのインタフェースを提案する。
このパイプラインは、AIエージェントを作成しながら、これらのプロセスのそれぞれを通じて、学生のデータ収集、データ拡張、意図認識、質問応答を教える。
論文 参考訳(メタデータ) (2022-12-14T22:57:44Z) - Persona-Based Conversational AI: State of the Art and Challenges [5.7817077975444136]
我々は、ペルソナに基づく情報によって会話における応答生成の質を向上させる方法について検討する。
我々の研究は、現在の最先端の手法に対するいくつかの制限を強調し、パーソナライズされた対話型AI技術を推進するための課題と今後の研究方向性を概説する。
論文 参考訳(メタデータ) (2022-12-04T18:16:57Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - Learning When and What to Ask: a Hierarchical Reinforcement Learning
Framework [17.017688226277834]
我々は、人間から追加情報を要求するタイミングを決定するための階層的な強化学習フレームワークを定式化した。
シミュレーションによるナビゲーション問題の結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2021-10-14T01:30:36Z) - NaRLE: Natural Language Models using Reinforcement Learning with Emotion
Feedback [0.37277730514654556]
NARLEは、対話システムの自然言語理解を改善するためのフレームワークである。
2つの意図的分類問題に対して、事前学習された教師付き学習モデルの微調整に強化学習を用いることで、最大43%の性能を向上させることを実証的に示す。
論文 参考訳(メタデータ) (2021-10-05T16:24:19Z) - Rethinking Supervised Learning and Reinforcement Learning in
Task-Oriented Dialogue Systems [58.724629408229205]
本稿では、従来の教師あり学習とシミュレータなしの逆学習法を用いて、最先端のRL法に匹敵する性能を実現する方法を示す。
我々の主な目的は、教師あり学習で強化学習に勝ることではなく、タスク指向対話システムの最適化における強化学習と教師あり学習の役割を再考する価値を示すことである。
論文 参考訳(メタデータ) (2020-09-21T12:04:18Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。