論文の概要: Data-Efficient Methods for Dialogue Systems
- arxiv url: http://arxiv.org/abs/2012.02929v1
- Date: Sat, 5 Dec 2020 02:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:09:04.711961
- Title: Data-Efficient Methods for Dialogue Systems
- Title(参考訳): 対話システムのためのデータ効率向上手法
- Authors: Igor Shalyminov
- Abstract要約: 会話型ユーザインタフェース(CUI)は、SiriやAlexaといったコンシューマにフォーカスした製品において、日常的に広く普及している。
ディープラーニングは、対話システムにおける最近のブレークスルーの根底にあるが、専門家によって注釈付けされることが多い、非常に大量のトレーニングデータを必要とする。
本稿では,最小限のデータから頑健な対話システムを訓練するための一連の手法を紹介する。
- 参考スコア(独自算出の注目度): 4.061135251278187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational User Interface (CUI) has become ubiquitous in everyday life,
in consumer-focused products like Siri and Alexa or business-oriented
solutions. Deep learning underlies many recent breakthroughs in dialogue
systems but requires very large amounts of training data, often annotated by
experts. Trained with smaller data, these methods end up severely lacking
robustness (e.g. to disfluencies and out-of-domain input), and often just have
too little generalisation power. In this thesis, we address the above issues by
introducing a series of methods for training robust dialogue systems from
minimal data. Firstly, we study two orthogonal approaches to dialogue:
linguistically informed and machine learning-based - from the data efficiency
perspective. We outline the steps to obtain data-efficient solutions with
either approach. We then introduce two data-efficient models for dialogue
response generation: the Dialogue Knowledge Transfer Network based on latent
variable dialogue representations, and the hybrid Generative-Retrieval
Transformer model (ranked first at the DSTC 8 Fast Domain Adaptation task).
Next, we address the problem of robustness given minimal data. As such, propose
a multitask LSTM-based model for domain-general disfluency detection. For the
problem of out-of-domain input, we present Turn Dropout, a data augmentation
technique for anomaly detection only using in-domain data, and introduce
autoencoder-augmented models for efficient training with Turn Dropout. Finally,
we focus on social dialogue and introduce a neural model for response ranking
in social conversation used in Alana, the 3rd place winner in the Amazon Alexa
Prize 2017 and 2018. We employ a novel technique of predicting the dialogue
length as the main ranking objective and show that this approach improves upon
the ratings-based counterpart in terms of data efficiency while matching it in
performance.
- Abstract(参考訳): 会話型ユーザインターフェース(CUI)は、SiriやAlexa、あるいはビジネス指向のソリューションといったコンシューマ指向の製品において、日常的に広く普及している。
ディープラーニングは、対話システムにおける最近のブレークスルーの根底にあるが、専門家によって注釈付けされることが多い大量のトレーニングデータを必要とする。
より小さなデータで訓練されたこれらの手法は、ロバスト性(例:ロバスト性)を著しく欠いている。
分散とドメイン外入力に)、そして多くの場合、一般化の力が少ない。
本論文では,最小データからロバスト対話システムを学習するための一連の手法を導入することで,上記の課題を解決する。
まず,データ効率の観点から,言語情報と機械学習に基づく対話の直交的アプローチについて検討する。
いずれのアプローチでも,データ効率のよいソリューションを得るためのステップを概説する。
次に、潜在変数の対話表現に基づく対話知識伝達ネットワークと、DSTC 8 Fast Domain Adaptation Taskで最初に引用される)ハイブリッド生成・検索変換モデルという、対話応答生成のための2つのデータ効率モデルを導入する。
次に,最小データに対するロバスト性の問題に対処する。
そこで、ドメイン一般不整合検出のためのマルチタスクlstmベースモデルを提案する。
ドメイン外入力の問題に対して,ドメイン内データのみを用いた異常検出のためのデータ拡張手法であるTurn Dropoutを提案し,Turn Dropoutを用いた効率的なトレーニングのためのオートエンコーダ拡張モデルを提案する。
最後に、ソーシャル対話に焦点を当て、Amazon Alexa Prize 2017と2018で3位を獲得したAlanaで使用されているソーシャル会話における応答ランキングのニューラルモデルを導入します。
そこで本研究では,対話長を主ランク付け対象とする新たな手法を用いて,データ効率の面から評価に基づく手法を改良し,その性能を比較検討する。
関連論文リスト
- Towards a Zero-Data, Controllable, Adaptive Dialog System [27.75972750138208]
ダイアログツリーから直接データを生成するアプローチについて検討する。
合成データで訓練されたエージェントは、人間のデータで訓練されたモデルに匹敵するダイアログを達成できることを示す。
論文 参考訳(メタデータ) (2024-03-26T10:45:11Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Weakly Supervised Data Augmentation Through Prompting for Dialogue
Understanding [103.94325597273316]
本稿では,弱教師付きフィルタを適用して拡張品質を反復する手法を提案する。
我々は、デイリーダイアログにおける感情と行動の分類タスクと、Facebook Multilingual Task-Oriented Dialogueにおける意図の分類タスクについて評価した。
特にDailyDialogでは、真理データの10%を使用して、100%のデータを使用する現在の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2022-10-25T17:01:30Z) - A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation [107.82729587882397]
現在のペルソナベースの対話データセットのスケールアップには費用がかかる。
このタスクの各データサンプルは、従来の対話データよりも複雑である。
本稿では,ペルソナをベースとした対話生成モデルにおいて,モデルに依存しないデータ操作手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T03:49:54Z) - Quick Starting Dialog Systems with Paraphrase Generation [0.0]
本稿では,既存の事例からより多くのデータを人工的に生成することで,対話エージェント作成のコストと労力を削減する手法を提案する。
提案手法は,人間の努力がほとんどないダイアログシステムを起動し,実際のエンドユーザーとの対話を可能にするのに十分なレベルの性能を実現する。
論文 参考訳(メタデータ) (2022-04-06T02:35:59Z) - Smoothing Dialogue States for Open Conversational Machine Reading [70.83783364292438]
本稿では,2つの対話状態を1つのデコーダとブリッジ決定と質問生成でスムーズにすることで,効果的なゲーティング戦略を提案する。
OR-ShARCデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-08-28T08:04:28Z) - Dialogue Distillation: Open-Domain Dialogue Augmentation Using Unpaired
Data [61.71319905364992]
未ペアデータを利用したオープンドメイン対話モデルのトレーニングのための新しいデータ拡張手法を提案する。
データレベルの蒸留プロセスが最初に提案され、未確認データからポストとレスポンスの両方を検索する拡張ダイアログを構築する。
低品質の対話をフィルタリングするためにランキングモジュールが使用される。
モデルレベルの蒸留プロセスを用いて、高品質なペアデータに基づいて訓練された教師モデルを、強化された対話ペアに蒸留する。
論文 参考訳(メタデータ) (2020-09-20T13:06:38Z) - Hybrid Generative-Retrieval Transformers for Dialogue Domain Adaptation [77.62366712130196]
マルチドメイン MetaLWOz データセットに微調整した GPT-2 に基づくハイブリッド生成・検索モデル DSTC8 の高速領域適応タスクにおける入賞条件について述べる。
提案モデルでは,MetaLWOz上の解析論理をフォールバックとして使用し,人間の評価におけるSoTA(第2位システムよりも4%向上)と,未知のMultiWOZデータセットに適応した競合一般化性能を実現する。
論文 参考訳(メタデータ) (2020-03-03T18:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。