論文の概要: "Wait, I'm Still Talking!" Predicting the Dialogue Interaction Behavior
Using Imagine-Then-Arbitrate Model
- arxiv url: http://arxiv.org/abs/2002.09616v4
- Date: Wed, 22 Sep 2021 08:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:30:18.156343
- Title: "Wait, I'm Still Talking!" Predicting the Dialogue Interaction Behavior
Using Imagine-Then-Arbitrate Model
- Title(参考訳): 「いや、まだしゃべってるよ!」
イマジネーション・Then-Arbitrateモデルによる対話相互作用の予測
- Authors: Zehao Lin, Shaobo Cui, Guodun Li, Xiaoming Kang, Feng Ji, Fenglin Li,
Zhongzhou Zhao, Haiqing Chen, Yin Zhang
- Abstract要約: 実際の人間と人間の会話では、1ターンで長いメッセージではなく、可読性のためのいくつかの短いメッセージが順次送信されることが多い。
本稿では,エージェントが待機するか,直接応答するかを決定するのに役立つ,新しいImagine-then-Arbitrate(ITA)ニューラルダイアログモデルを提案する。
- 参考スコア(独自算出の注目度): 24.560203199376478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Producing natural and accurate responses like human beings is the ultimate
goal of intelligent dialogue agents. So far, most of the past works concentrate
on selecting or generating one pertinent and fluent response according to
current query and its context. These models work on a one-to-one environment,
making one response to one utterance each round. However, in real human-human
conversations, human often sequentially sends several short messages for
readability instead of a long message in one turn. Thus messages will not end
with an explicit ending signal, which is crucial for agents to decide when to
reply. So the first step for an intelligent dialogue agent is not replying but
deciding if it should reply at the moment. To address this issue, in this
paper, we propose a novel Imagine-then-Arbitrate (ITA) neural dialogue model to
help the agent decide whether to wait or to make a response directly. Our
method has two imaginator modules and an arbitrator module. The two imaginators
will learn the agent's and user's speaking style respectively, generate
possible utterances as the input of the arbitrator, combining with dialogue
history. And the arbitrator decides whether to wait or to make a response to
the user directly. To verify the performance and effectiveness of our method,
we prepared two dialogue datasets and compared our approach with several
popular models. Experimental results show that our model performs well on
addressing ending prediction issue and outperforms baseline models.
- Abstract(参考訳): 人間のような自然で正確な反応を生み出すことは、知的対話エージェントの究極の目標である。
これまでの作業のほとんどは、現在のクエリとそのコンテキストに応じて、関連する1つの応答を選択したり、生成することに集中しています。
これらのモデルは1対1の環境で動作し、1ラウンドごとに1つの発話に応答する。
しかし、実際の人間と人間の会話では、人間が順番に長いメッセージではなく、読みやすさのためにいくつかの短いメッセージを順次送る。
したがって、メッセージは明示的な終了信号で終わることはない。
ですから、インテリジェントな対話エージェントの最初のステップは、返信ではなく、現時点で返信すべきかどうかを判断することです。
この問題に対処するため,本稿では,エージェントが待機するか,あるいは直接応答するかを判断するための,新しいイマジネーション・then-arbitrate(ita)ニューラル対話モデルを提案する。
本手法は,2つのイマジネータモジュールと調停モジュールを備える。
2人の想像家はエージェントとユーザの話し方をそれぞれ学習し、対話履歴と組み合わせて調停者の入力として可能な発話を生成する。
そして、調停者は、待つか、ユーザーに直接応答するかを決定する。
提案手法の性能と有効性を検証するため,2つの対話データセットを作成し,そのアプローチをいくつかの人気モデルと比較した。
実験結果から,本モデルは終端予測問題に対処し,ベースラインモデルを上回る性能を示した。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - EM Pre-training for Multi-party Dialogue Response Generation [86.25289241604199]
多人数対話では、応答発話の宛先を生成前に指定する必要がある。
本稿では,アドレナラベルを生成するための期待ステップを反復的に実行する期待最大化(EM)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:41Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - AutoReply: Detecting Nonsense in Dialogue Introspectively with
Discriminative Replies [71.62832112141913]
対話モデルは、不適切なメッセージを示す応答の確率を計算し、内観的に自分のメッセージの誤りを検出することができることを示す。
まず、手作りの返信は外交と同じくらい複雑なアプリケーションにおけるナンセンスを検出するタスクに有効であることを示す。
AutoReplyの生成した応答は手作りの応答よりも優れており、慎重に調整された大規模な教師付きモデルと同等に動作することがわかった。
論文 参考訳(メタデータ) (2022-11-22T22:31:34Z) - Prompting for a conversation: How to control a dialog model? [9.268682116424518]
ダイアログモデルは大量のテキストでトレーニングされるが、その応答はダイアログエージェントの望ましいスコープとスタイルに制限される必要がある。
前者を達成するために使用されるデータセットには後者と互換性のない言語が含まれているため、事前訓練されたダイアログモデルは、より小さなキュレートされたデータセットで微調整される。
本稿では,上記のトレードオフを緩和できるかどうかを検討する。
論文 参考訳(メタデータ) (2022-09-22T14:59:55Z) - A Taxonomy of Empathetic Response Intents in Human Social Conversations [1.52292571922932]
自然言語処理コミュニティでは、オープンドメインの会話エージェントがますます人気を高めている。
課題のひとつは、共感的な方法で会話できるようにすることです。
現在のニューラルレスポンス生成手法は、大規模な会話データからエンドツーエンドの学習のみに頼って対話を生成する。
近年,対話act/intentモデリングとニューラルレスポンス生成を組み合わせることが期待されている。
論文 参考訳(メタデータ) (2020-12-07T21:56:45Z) - Predict-then-Decide: A Predictive Approach for Wait or Answer Task in
Dialogue Systems [24.560203199376478]
本稿では,このウェイト・オア・アンサー問題に対処するための予測手法であるPredict-then-Decide (PTD)を提案する。
2つの実生活シナリオと3つの公開データセットで実験を行う。
論文 参考訳(メタデータ) (2020-05-27T01:48:54Z) - Weakly-Supervised Neural Response Selection from an Ensemble of
Task-Specialised Dialogue Agents [11.21333474984984]
異種対話エージェントが生成する応答の集合から最適な応答を選択するという問題をモデル化する。
提案手法は,カリキュラム学習機構を用いて,一対一の会話における一貫性のある応答のセットを予測することを訓練する。
論文 参考訳(メタデータ) (2020-05-06T18:40:26Z) - I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents [69.68400056148336]
我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。