論文の概要: Pre-Training for Query Rewriting in A Spoken Language Understanding
System
- arxiv url: http://arxiv.org/abs/2002.05607v1
- Date: Thu, 13 Feb 2020 16:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:30:11.537503
- Title: Pre-Training for Query Rewriting in A Spoken Language Understanding
System
- Title(参考訳): 音声言語理解システムにおけるクエリ書き換えのための事前学習
- Authors: Zheng Chen, Xing Fan, Yuan Ling, Lambert Mathias, Chenlei Guo
- Abstract要約: まず、クエリ書き換えのためのニューラル検索に基づくアプローチを提案する。
そして、事前学習された文脈言語埋め込みの成功に触発されて、言語モデリング(LM)に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.902583546933563
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Query rewriting (QR) is an increasingly important technique to reduce
customer friction caused by errors in a spoken language understanding pipeline,
where the errors originate from various sources such as speech recognition
errors, language understanding errors or entity resolution errors. In this
work, we first propose a neural-retrieval based approach for query rewriting.
Then, inspired by the wide success of pre-trained contextual language
embeddings, and also as a way to compensate for insufficient QR training data,
we propose a language-modeling (LM) based approach to pre-train query
embeddings on historical user conversation data with a voice assistant. In
addition, we propose to use the NLU hypotheses generated by the language
understanding system to augment the pre-training. Our experiments show
pre-training provides rich prior information and help the QR task achieve
strong performance. We also show joint pre-training with NLU hypotheses has
further benefit. Finally, after pre-training, we find a small set of rewrite
pairs is enough to fine-tune the QR model to outperform a strong baseline by
full training on all QR training data.
- Abstract(参考訳): クエリ書き換え(QR)は、音声認識エラー、言語理解エラー、エンティティ解決エラーなどの様々なソースから発生する、音声言語理解パイプラインにおけるエラーによる顧客の摩擦を低減するための、ますます重要なテクニックである。
本研究ではまず,クエリ書き換えのためのニューラルネットワークに基づく手法を提案する。
そして、事前学習された文脈言語埋め込みの成功に触発され、またQRトレーニングデータの不足を補う手段として、音声アシスタントを用いた歴史的ユーザ会話データに対する事前学習クエリ埋め込みに対する言語モデリング(LM)に基づくアプローチを提案する。
さらに,言語理解システムによって生成されたNLU仮説を用いて事前学習を強化することを提案する。
実験では,事前学習が豊富な事前情報を提供し,qrタスクの性能向上を支援することを示した。
また,NLU仮説との併用による事前トレーニングにより,さらなるメリットが示された。
最後に、事前トレーニング後、QRモデルの微調整に十分である小さなリライトペアが、すべてのQRトレーニングデータに対する完全なトレーニングによって、強力なベースラインを上回ります。
関連論文リスト
- Generalization v.s. Memorization: Tracing Language Models' Capabilities Back to Pretraining Data [76.90128359866462]
本稿では,出力確率と事前学習データ頻度の相関を計測する,記憶化,分布記憶化という拡張概念を導入する。
本研究は, より単純で知識集約的なタスクにおいて, 記憶がより大きな役割を担い, 一般化が, より困難で推論に基づくタスクの鍵であることを示す。
論文 参考訳(メタデータ) (2024-07-20T21:24:40Z) - Generative error correction for code-switching speech recognition using
large language models [49.06203730433107]
コードスイッチング(英: Code-switching, CS)とは、2つ以上の言語が同じ文内に混在する現象である。
本稿では,大規模言語モデル (LLM) と ASR が生成する仮説のリストを利用して,CS 問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:49:48Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - An Approach to Improve Robustness of NLP Systems against ASR Errors [39.57253455717825]
音声対応システムは通常、音声を自動音声認識モデルを介してテキストに変換し、テキストを下流の自然言語処理モジュールに供給します。
ASRシステムのエラーは、NLPモジュールの性能を著しく低下させる可能性がある。
これまでの研究では、トレーニングプロセス中にasrノイズを注入することにより、この問題を解決するためにデータ拡張手法を用いることが有効であることが示されている。
論文 参考訳(メタデータ) (2021-03-25T05:15:43Z) - Conversational Query Rewriting with Self-supervised Learning [36.392717968127016]
Conversational Query Rewriting (CQR) は、会話クエリを自己完結した発話に明示的に書き換えることによって、マルチターン対話を単一ターン問題に単純化することを目的としている。
既存のアプローチは、アノテートに労働集約的な大規模な教師付きトレーニングデータに依存している。
我々は,人間のアノテーションを必要としない自己教師付き学習により,大規模CQRデータセットを自動構築することを提案する。
論文 参考訳(メタデータ) (2021-02-09T08:57:53Z) - Pattern-aware Data Augmentation for Query Rewriting in Voice Assistant
Systems [10.332550622090718]
既存のトレーニングペアからパターンを学習し、ラベルの書き換えから書き換え候補を逆に生成し、不十分なQRトレーニングデータを補う拡張フレームワークを提案する。
実験の結果,QRベースラインを十分に訓練し,低リソース領域やローカライズ領域でのQR性能向上に有効である可能性が示された。
論文 参考訳(メタデータ) (2020-12-21T16:36:32Z) - How Context Affects Language Models' Factual Predictions [134.29166998377187]
検索システムからの情報を学習済みの言語モデルと純粋に教師なしの方法で統合する。
この方法で事前学習された言語モデルを拡張することで、性能が劇的に向上し、教師なしにもかかわらず、結果として得られるシステムは、教師なしの機械読解ベースラインと競合する、と報告する。
論文 参考訳(メタデータ) (2020-05-10T09:28:12Z) - Improving Readability for Automatic Speech Recognition Transcription [50.86019112545596]
我々は、可読性のためのASRポストプロセッシング(APR)と呼ばれる新しいNLPタスクを提案する。
APRは、ノイズの多いASR出力を、話者の意味を保ちながら、人間や下流タスクのための読みやすいテキストに変換することを目的としている。
我々は,いくつかのオープンソースモデルと適応型事前学習モデルに基づく微調整モデルと,従来のパイプライン手法との比較を行った。
論文 参考訳(メタデータ) (2020-04-09T09:26:42Z) - REALM: Retrieval-Augmented Language Model Pre-Training [37.3178586179607]
言語モデルの事前学習を潜伏知識検索システムで強化し,ウィキペディアのような大規模コーパスから文書を検索し,出席できるようにする。
本研究では,このような知識検索を教師なしで事前学習する方法を初めて示す。
オープンドメイン質問回答(Open-QA)の課題を微調整し,検索型言語モデル事前学習(REALM)の有効性を実証する。
論文 参考訳(メタデータ) (2020-02-10T18:40:59Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。