論文の概要: A Few-Shot Semantic Parser for Wizard-of-Oz Dialogues with the Precise
ThingTalk Representation
- arxiv url: http://arxiv.org/abs/2009.07968v3
- Date: Fri, 8 Apr 2022 00:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:04:21.017225
- Title: A Few-Shot Semantic Parser for Wizard-of-Oz Dialogues with the Precise
ThingTalk Representation
- Title(参考訳): 高精度ThingTalk表現を用いたウィザード・オブ・オズのセマンティックパーザ
- Authors: Giovanni Campagna, Sina J. Semnani, Ryan Kearns, Lucas Jun Koba Sato,
Silei Xu, Monica S. Lam
- Abstract要約: ウィザード・オブ・オズ(WOZ)会話のための効果的な意味論を構築しようとする以前の試みは、高品質で手動の注釈付きトレーニングセットを取得するのが困難であった。
本稿では,WOZ会話における正確な対話状態を予測できる新しい対話表現とサンプル効率の手法を提案する。
- 参考スコア(独自算出の注目度): 5.56536459714557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous attempts to build effective semantic parsers for Wizard-of-Oz (WOZ)
conversations suffer from the difficulty in acquiring a high-quality, manually
annotated training set. Approaches based only on dialogue synthesis are
insufficient, as dialogues generated from state-machine based models are poor
approximations of real-life conversations. Furthermore, previously proposed
dialogue state representations are ambiguous and lack the precision necessary
for building an effective agent. This paper proposes a new dialogue
representation and a sample-efficient methodology that can predict precise
dialogue states in WOZ conversations. We extended the ThingTalk representation
to capture all information an agent needs to respond properly. Our training
strategy is sample-efficient: we combine (1) fewshot data sparsely sampling the
full dialogue space and (2) synthesized data covering a subset space of
dialogues generated by a succinct state-based dialogue model. The completeness
of the extended ThingTalk language is demonstrated with a fully operational
agent, which is also used in training data synthesis. We demonstrate the
effectiveness of our methodology on MultiWOZ 3.0, a reannotation of the
MultiWOZ 2.1 dataset in ThingTalk. ThingTalk can represent 98% of the test
turns, while the simulator can emulate 85% of the validation set. We train a
contextual semantic parser using our strategy, and obtain 79% turn-by-turn
exact match accuracy on the reannotated test set.
- Abstract(参考訳): Wizard-of-Oz(WOZ)会話のための効果的なセマンティックパーサーの構築の試みは、高品質で手動の注釈付きトレーニングセットを取得することの難しさに悩まされている。
状態マシンモデルから生成された対話は実生活会話の近似に乏しいため、対話合成のみに基づくアプローチは不十分である。
さらに,提案する対話状態表現はあいまいであり,効果的なエージェント構築に必要な精度を欠いている。
本稿では,WOZ会話における正確な対話状態を予測できる新しい対話表現とサンプル効率の手法を提案する。
我々はThingTalk表現を拡張して、エージェントが適切に応答する必要があるすべての情報をキャプチャした。
トレーニング戦略は,(1) 全対話空間をスパースにサンプリングするスショットデータと,(2)簡潔な状態ベース対話モデルによって生成された対話のサブセット空間をカバーする合成データを組み合わせる。
拡張されたThingTalk言語の完全性は、データ合成のトレーニングにも使用される完全に動作するエージェントで実証される。
我々はThingTalkにおけるMultiWOZ 2.1データセットの再注釈であるMultiWOZ 3.0における方法論の有効性を示す。
ThingTalkはテストターンの98%を表現でき、シミュレータはバリデーションセットの85%をエミュレートできる。
提案手法を用いて文脈意味パーサを訓練し,再注釈テストセット上で79%のターンバイターン精度を得る。
関連論文リスト
- Generative Expressive Conversational Speech Synthesis [47.53014375797254]
会話音声合成(CSS)は,ユーザエージェントによる会話設定において,適切な発話スタイルでターゲット発話を表現することを目的としている。
GPT-Talkerと呼ばれる新しい生成表現型CSSシステムを提案する。
マルチターン対話履歴のマルチモーダル情報を離散トークンシーケンスに変換し、それらをシームレスに統合して総合的なユーザエージェント対話コンテキストを形成する。
論文 参考訳(メタデータ) (2024-07-31T10:02:21Z) - Are LLMs Robust for Spoken Dialogues? [10.855403629160921]
大規模な事前学習型言語モデルでは、さまざまな下流タスクで最先端のパフォーマンスが実証されている。
タスク指向対話に関する公開データセットとベンチマークのほとんどは、書かれた会話に重点を置いている。
DSTC11テストセットにおける音声タスク指向対話におけるLLMの性能評価を行った。
論文 参考訳(メタデータ) (2024-01-04T14:36:38Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - SuperDialseg: A Large-scale Dataset for Supervised Dialogue Segmentation [55.82577086422923]
文書地上対話の助けを借りて,対話のセグメンテーションポイントを実現可能な定義を提供する。
我々は,9,478の対話を含むSuperDialsegと呼ばれる大規模教師付きデータセットをリリースする。
また、対話セグメンテーションタスクの5つのカテゴリにまたがる18のモデルを含むベンチマークも提供する。
論文 参考訳(メタデータ) (2023-05-15T06:08:01Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for
Task-Oriented Dialog Understanding [68.94808536012371]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから対話表現を学習する,木構造付き事前学習会話モデルを提案する。
提案手法は,7つのデータセットと4つの一般的な対話理解タスクからなるDialoGLUEベンチマークにおいて,最新の結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T13:42:50Z) - Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension [48.483910831143724]
対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そこで我々は,対話入力からキー情報をナレーションすることで学習する,物語誘導型事前学習戦略を開発した。
論文 参考訳(メタデータ) (2022-03-19T05:20:25Z) - Contextual Semantic Parsing for Multilingual Task-Oriented Dialogues [7.8378818005171125]
1つの言語で大規模な対話データセットをセットすると、機械翻訳を用いて他の言語に対して効果的な意味を自動生成できる。
本稿では、スロット値の忠実な翻訳を保証するために、アライメント付き対話データセットの自動翻訳を提案する。
簡潔な表現が翻訳誤りの複合効果を減少させることを示す。
論文 参考訳(メタデータ) (2021-11-04T01:08:14Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。