論文の概要: I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents
- arxiv url: http://arxiv.org/abs/2002.02878v2
- Date: Mon, 10 Feb 2020 20:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:24:54.756598
- Title: I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents
- Title(参考訳): あなたのチェーンメール大好き!
knights smile in a fantasy game world: オープンドメインのゴール指向対話エージェント
- Authors: Shrimai Prabhumoye and Margaret Li and Jack Urbanek and Emily Dinan
and Douwe Kiela and Jason Weston and Arthur Szlam
- Abstract要約: 我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
- 参考スコア(独自算出の注目度): 69.68400056148336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue research tends to distinguish between chit-chat and goal-oriented
tasks. While the former is arguably more naturalistic and has a wider use of
language, the latter has clearer metrics and a straightforward learning signal.
Humans effortlessly combine the two, for example engaging in chit-chat with the
goal of exchanging information or eliciting a specific response. Here, we
bridge the divide between these two domains in the setting of a rich
multi-player text-based fantasy environment where agents and humans engage in
both actions and dialogue. Specifically, we train a goal-oriented model with
reinforcement learning against an imitation-learned ``chit-chat'' model with
two approaches: the policy either learns to pick a topic or learns to pick an
utterance given the top-K utterances from the chit-chat model. We show that
both models outperform an inverse model baseline and can converse naturally
with their dialogue partner in order to achieve goals.
- Abstract(参考訳): 対話研究は、チャットとゴール指向タスクを区別する傾向がある。
前者はおそらくより自然主義的であり、言語がより広く使われているが、後者は明確なメトリクスと分かりやすい学習信号を持っている。
人間は、情報を交換したり、特定の反応を引き出すという目標と、チトチャットに携わるなど、この2つを熱心に組み合わせている。
ここでは、エージェントと人間がアクションと対話の両方を行うリッチなマルチプレイヤーテキストベースのファンタジー環境の設定において、これら2つのドメインの分割を橋渡しする。
具体的には, 「チットチャット」 モデルに対する強化学習による目標指向モデルを2つのアプローチで訓練する: ポリシーはトピックを選択することを学ぶか, あるいは、チットチャットモデルからトップK発話を与えられた発話を選択することを学習する。
両モデルとも逆モデルベースラインを上回っており,目標を達成するために対話相手と自然に会話できることを示す。
関連論文リスト
- Searching for Snippets of Open-Domain Dialogue in Task-Oriented Dialogue
Datasets [0.0]
chit-chat/open domainダイアログは、ユーザとのソーシャルな会話に重点を置いている。
タスク指向の対話は、レストランの予約や飛行機のチケットの予約など、機能目標を表現する。
本研究は,ソーシャルトークに関連するシーケンスが自然に存在することを示し,chitchatをタスク指向対話に組み込む方法に関するさらなる研究を動機付けている。
論文 参考訳(メタデータ) (2023-11-23T16:08:39Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Multi-Party Chat: Conversational Agents in Group Settings with Humans
and Models [39.80729604768669]
我々は,多人数会話において,言語モデルが1つ以上のキャラクタとして機能する能力を評価する。
新しいデータセットであるMultiLIGHTは、グループ設定の大幅な改善に役立ちます。
論文 参考訳(メタデータ) (2023-04-26T21:41:17Z) - SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues [22.89699254073016]
ソーシャルチャットからタスク指向対話へのスムーズな移行は、ビジネスチャンスの引き金になる上で重要である。
本稿では,人間の介在なく多数の対話を自動生成するフレームワークを提案する。
公表されたデータは、将来の研究方向と商業活動のガイドとなる大きな可能性を秘めている。
論文 参考訳(メタデータ) (2022-04-22T09:31:13Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Adding Chit-Chat to Enhance Task-Oriented Dialogues [36.93917437554091]
Chit-Chatをタスク指向の対話に追加することで、仮想アシスタントの会話をより魅力的でインタラクティブにすることができる。
我々は,2つのタスク指向対話データセットから23.8Kの対話に,新しいチャットベースのアノテーションを提案する。
また,タスク指向対話にChit-chatを追加するための3つの新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:22:43Z) - How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and
Act in Fantasy Worlds [47.7511759322784]
目標を追求するために、他のエージェントと行動し、コミュニケーションするエージェントを創り出そうとしています。
本稿では,大規模言語モデリングとコモンセンス推論に基づく事前学習を取り入れた強化学習システムを提案する。
我々は、保持された人間の専門家によるデモンストレーションを用いてゼロショット評価を行い、エージェントが彼らのモチベーションに関して一貫して行動し、自然に話すことができることを示す。
論文 参考訳(メタデータ) (2020-10-01T21:06:21Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。