論文の概要: Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations
- arxiv url: http://arxiv.org/abs/2203.04045v1
- Date: Tue, 8 Mar 2022 12:26:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 14:29:28.598517
- Title: Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations
- Title(参考訳): タスク指向対話モデルのための一般化モデルの構築
- Authors: Ruijie Yan, Shuang Peng, Haitao Mi, Liang Jiang, Shihui Yang, Yuchi
Zhang, Jiajun Li, Liangrui Peng, Yongliang Wang, Zujie Wen
- Abstract要約: 本稿では,DSTC-10の音声対話課題における知識ベースタスク指向対話モデリングのための一般化モデルの構築について述べる。
我々は,人工誤り注入やラウンドトリップ音声変換など,手書きデータに対する広範なデータ拡張戦略を採用している。
本手法は, 客観的評価では3位, 最終公式評価では2位である。
- 参考スコア(独自算出の注目度): 22.894541507068933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building robust and general dialogue models for spoken conversations is
challenging due to the gap in distributions of spoken and written data. This
paper presents our approach to build generalized models for the
Knowledge-grounded Task-oriented Dialogue Modeling on Spoken Conversations
Challenge of DSTC-10. In order to mitigate the discrepancies between spoken and
written text, we mainly employ extensive data augmentation strategies on
written data, including artificial error injection and round-trip text-speech
transformation. To train robust models for spoken conversations, we improve
pre-trained language models, and apply ensemble algorithms for each sub-task.
Typically, for the detection task, we fine-tune \roberta and ELECTRA, and run
an error-fixing ensemble algorithm. For the selection task, we adopt a
two-stage framework that consists of entity tracking and knowledge ranking, and
propose a multi-task learning method to learn multi-level semantic information
by domain classification and entity selection. For the generation task, we
adopt a cross-validation data process to improve pre-trained generative
language models, followed by a consensus decoding algorithm, which can add
arbitrary features like relative \rouge metric, and tune associated feature
weights toward \bleu directly. Our approach ranks third on the objective
evaluation and second on the final official human evaluation.
- Abstract(参考訳): 音声対話のための頑健で一般的な対話モデルの構築は,音声・音声データの分散の欠如により困難である。
本稿では,dstc-10の音声対話課題における知識基盤型タスク指向対話モデリングのための一般化モデル構築手法を提案する。
テキストと音声の差異を軽減するため,手書きデータに対して,人工的エラーインジェクションやラウンドトリップによるテキスト変換など,広範なデータ拡張戦略を主に採用する。
音声対話のための頑健なモデルを訓練するために,事前学習された言語モデルを改善し,各サブタスクに対してアンサンブルアルゴリズムを適用した。
通常、検出タスクでは、 \roberta と ELECTRA を微調整し、エラー修正アンサンブルアルゴリズムを実行する。
選択タスクでは,エンティティトラッキングと知識ランキングからなる2段階のフレームワークを採用し,ドメイン分類とエンティティ選択による多段階意味情報学習のためのマルチタスク学習手法を提案する。
生成タスクには、事前学習された生成言語モデルを改善するために、相互評価データプロセスを採用し、さらに、相対的ルージュ計量のような任意の機能を追加し、関連する特徴重みを直接 \bleu にチューニングできるコンセンサス復号アルゴリズムを適用する。
客観的評価では第3位,人的評価では第2位である。
関連論文リスト
- Learning Phonotactics from Linguistic Informants [54.086544221761486]
本モデルでは,情報理論的なポリシーの1つに従って,データポイントを反復的に選択または合成する。
提案モデルでは,情報提供者を問う項目の選択に使用する情報理論のポリシーが,完全教師付きアプローチに匹敵する,あるいはそれ以上の効率性が得られることがわかった。
論文 参考訳(メタデータ) (2024-05-08T00:18:56Z) - Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Conversation Disentanglement with Bi-Level Contrastive Learning [26.707584899718288]
既存の手法には2つの主な欠点がある。まず、ペアの発話関係を過度に強調するが、発話-文脈関係モデルに不適切な注意を払う。
本稿では,2段階のコントラスト学習に基づく一般的な不協和モデルを提案する。このモデルでは,同一セッションに近づき,各発話が表現空間内のクラスタ化されたセッションプロトタイプに近づくように促す。
論文 参考訳(メタデータ) (2022-10-27T08:41:46Z) - OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - An Empirical Investigation of Pre-Trained Transformer Language Models
for Open-Domain Dialogue Generation [23.343006562849126]
本稿では,オープンドメイン対話生成作業のための事前学習型トランスフォーマーに基づく自動回帰言語モデルについて実験的に検討する。
事前訓練と微調整の訓練パラダイムは、学習を行うために使用される。
実験は、Weibo、Douban、Reddit、DailyDialog、Persona-Chatといった典型的なシングルターンとマルチターンの対話コーパスで行われる。
論文 参考訳(メタデータ) (2020-03-09T15:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。