論文の概要: A Discriminative Entity-Aware Language Model for Virtual Assistants
- arxiv url: http://arxiv.org/abs/2106.11292v1
- Date: Mon, 21 Jun 2021 17:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:57:42.628764
- Title: A Discriminative Entity-Aware Language Model for Virtual Assistants
- Title(参考訳): 仮想アシスタントのための識別エンティティ認識言語モデル
- Authors: Mandana Saebi, Ernest Pusateri, Aaksha Meghawat, Christophe Van Gysel
- Abstract要約: 仮想アシスタント(VA)では,高品質な自動音声認識(ASR)が不可欠である。
本研究は、実世界の知識と矛盾する名前付きエンティティ上の多くのASRエラーを観察することから始める。
我々は、従来の差別的なn-gram言語モデリングアプローチを拡張し、知識グラフから現実世界の知識を取り入れた。
- 参考スコア(独自算出の注目度): 4.2854663014000876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality automatic speech recognition (ASR) is essential for virtual
assistants (VAs) to work well. However, ASR often performs poorly on VA
requests containing named entities. In this work, we start from the observation
that many ASR errors on named entities are inconsistent with real-world
knowledge. We extend previous discriminative n-gram language modeling
approaches to incorporate real-world knowledge from a Knowledge Graph (KG),
using features that capture entity type-entity and entity-entity relationships.
We apply our model through an efficient lattice rescoring process, achieving
relative sentence error rate reductions of more than 25% on some synthesized
test sets covering less popular entities, with minimal degradation on a
uniformly sampled VA test set.
- Abstract(参考訳): 仮想アシスタント(VA)では,高品質な自動音声認識(ASR)が不可欠である。
しかし、ASRは名前付きエンティティを含むVAリクエストではよく機能しない。
本研究は、実世界の知識と矛盾する名前付きエンティティ上の多くのASRエラーを観察することから始める。
従来の差別的なn-gram言語モデリングアプローチを拡張して、エンティティの型関係とエンティティ-エンティティの関係をキャプチャする機能を用いて、知識グラフ(KG)から現実世界の知識を取り入れます。
提案手法を効率的な格子再構成法により適用し, あまり普及しないエンティティをカバーする合成テストセットに対して, 25%以上の相対文誤り率削減を実現し, 均一サンプルVAテストセット上での劣化を最小限に抑えた。
関連論文リスト
- Continuously Learning New Words in Automatic Speech Recognition [56.972851337263755]
本稿では,新たな単語認識のための自己教師付き連続学習手法を提案する。
過去の研究から,メモリ拡張型自動音声認識モデルを用いた。
提案手法により,新たな単語の出現頻度が高くなると,新たな単語のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-01-09T10:39:17Z) - Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - Record Deduplication for Entity Distribution Modeling in ASR Transcripts [0.0]
我々は、誤認識されたエンティティの95%を取得するために、レコード重複を使用します。
文脈バイアスに用いた場合,提案手法は単語誤り率の5%削減を推定する。
論文 参考訳(メタデータ) (2023-06-09T20:42:11Z) - Space-Efficient Representation of Entity-centric Query Language Models [8.712427362992237]
モデル生成時の非項の明示的な拡張を回避するため,確率文法に決定論的近似を導入する。
また、同じ大きさのn-gramモデルを用いた場合と比較して、長テールエンティティクエリの単語誤り率を10%改善する。
論文 参考訳(メタデータ) (2022-06-29T19:59:50Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。