論文の概要: The Interplay of Task Success and Dialogue Quality: An in-depth
Evaluation in Task-Oriented Visual Dialogues
- arxiv url: http://arxiv.org/abs/2103.11151v1
- Date: Sat, 20 Mar 2021 10:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 02:53:57.399059
- Title: The Interplay of Task Success and Dialogue Quality: An in-depth
Evaluation in Task-Oriented Visual Dialogues
- Title(参考訳): タスク成功と対話品質の相互作用:タスク指向視覚対話における深い評価
- Authors: Alberto Testoni, Raffaella Bernardi
- Abstract要約: 一般的なエンドツーエンドアプローチでは、この選択はモデルが言語的に豊かな対話を生成するための学習を妨げることを示しています。
GuessWhatでは、トレーニングセットで頻繁に発生しない単語を接地、エンコード、デコードすることを学ぶと、モデルが精度を高めることができることを示しています。
- 参考スコア(独自算出の注目度): 6.02280861819024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When training a model on referential dialogue guessing games, the best model
is usually chosen based on its task success. We show that in the popular
end-to-end approach, this choice prevents the model from learning to generate
linguistically richer dialogues, since the acquisition of language proficiency
takes longer than learning the guessing task. By comparing models playing
different games (GuessWhat, GuessWhich, and Mutual Friends), we show that this
discrepancy is model- and task-agnostic. We investigate whether and when better
language quality could lead to higher task success. We show that in GuessWhat,
models could increase their accuracy if they learn to ground, encode, and
decode also words that do not occur frequently in the training set.
- Abstract(参考訳): 参照対話推測ゲーム上でモデルをトレーニングする場合、最善のモデルは、通常、そのタスク成功に基づいて選択される。
提案手法では,言語能力の習得には推測作業よりも長い時間がかかるため,この選択はモデルが言語的にリッチな対話を生成するための学習を妨げていることを示す。
異なるゲームをプレイするモデル(GuessWhat, GuessWhich, Mutual Friends)を比較することで、この違いはモデルとタスクに依存しないことを示している。
より優れた言語品質がタスクの成功につながるかどうかを調査する。
推測では、学習セットで頻繁に発生しない単語をグラウンド、エンコード、デコードすることを学ぶと、モデルによって精度が向上することを示している。
関連論文リスト
- Don't Copy the Teacher: Data and Model Challenges in Embodied Dialogue [92.01165203498299]
後続の身体的対話命令は、自然言語交換から複雑なタスクのシーケンスを完了させるエージェントを必要とする。
本稿では,模倣学習(IL)と関連する低レベルメトリクスが,実際には誤解を招くものであり,具体的対話研究の目標と一致していないことを論じる。
論文 参考訳(メタデータ) (2022-10-10T05:51:40Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z) - Modality-Balanced Models for Visual Dialogue [102.35406085738325]
Visual Dialogタスクは、対話に対する次の応答を生成するために、画像情報と会話コンテキスト情報の両方を利用するモデルを必要とする。
過去の共同モダリティ(歴史とイメージ)モデルが過度に再現され,対話履歴を記憶する傾向が強いことを示す。
本稿では,共有パラメータを用いたアンサンブルとコンセンサス・ドロップアウト融合による2つのモデルの統合手法を提案する。
論文 参考訳(メタデータ) (2020-01-17T14:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。