論文の概要: Space-Efficient Representation of Entity-centric Query Language Models
- arxiv url: http://arxiv.org/abs/2206.14885v1
- Date: Wed, 29 Jun 2022 19:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 13:38:12.743847
- Title: Space-Efficient Representation of Entity-centric Query Language Models
- Title(参考訳): エンティティ中心の問合せ言語モデルの空間効率表現
- Authors: Christophe Van Gysel, Mirko Hannemann, Ernest Pusateri, Youssef
Oualil, Ilya Oparin
- Abstract要約: モデル生成時の非項の明示的な拡張を回避するため,確率文法に決定論的近似を導入する。
また、同じ大きさのn-gramモデルを用いた場合と比較して、長テールエンティティクエリの単語誤り率を10%改善する。
- 参考スコア(独自算出の注目度): 8.712427362992237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual assistants make use of automatic speech recognition (ASR) to help
users answer entity-centric queries. However, spoken entity recognition is a
difficult problem, due to the large number of frequently-changing named
entities. In addition, resources available for recognition are constrained when
ASR is performed on-device.
In this work, we investigate the use of probabilistic grammars as language
models within the finite-state transducer (FST) framework. We introduce a
deterministic approximation to probabilistic grammars that avoids the explicit
expansion of non-terminals at model creation time, integrates directly with the
FST framework, and is complementary to n-gram models.
We obtain a 10% relative word error rate improvement on long tail entity
queries compared to when a similarly-sized n-gram model is used without our
method.
- Abstract(参考訳): 仮想アシスタントは自動音声認識(asr)を使用して、ユーザーがエンティティ中心のクエリに答えるのを助ける。
しかし、しばしば変化する名前付きエンティティが多いため、音声によるエンティティ認識は難しい問題である。
さらに、ASRがオンデバイスで実行されると、認識可能なリソースが制約される。
本研究では,有限状態トランスデューサ(FST)フレームワークにおける言語モデルとしての確率文法の利用について検討する。
モデル生成時に非終端の明示的な拡張を回避し、FSTフレームワークと直接統合し、n-gramモデルに補完する確率文法に決定論的近似を導入する。
提案手法を使わずにn-gramモデルを用いた場合と比較して,長テールエンティティクエリの単語誤り率を10%改善する。
関連論文リスト
- It's Never Too Late: Fusing Acoustic Information into Large Language
Models for Automatic Speech Recognition [70.77292069313154]
大規模言語モデル(LLM)は、自動音声認識(ASR)出力の上の生成誤り訂正(GER)に成功することができる。
本研究では,不確実性認識ダイナミックフュージョン (UADF) と呼ばれる新しい遅延融合解によって予測された転写を生成する前に,音響情報を注入することにより,そのような制限を克服することを目的とする。
論文 参考訳(メタデータ) (2024-02-08T07:21:45Z) - Coherent Entity Disambiguation via Modeling Topic and Categorical
Dependency [87.16283281290053]
従来のエンティティ曖昧化(ED)メソッドは、参照コンテキストと候補エンティティの一致するスコアに基づいて予測を行う、識別パラダイムを採用している。
本稿では,エンティティ予測のコヒーレンス向上を目的とした新しいデザインを備えたEDシステムであるCoherentedを提案する。
我々は、人気EDベンチマークにおいて、平均1.3F1ポイントの改善により、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-11-06T16:40:13Z) - Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - Contextual Biasing with the Knuth-Morris-Pratt Matching Algorithm [45.42075576656938]
文脈バイアスとは、音声認識システムを希少な実体に偏り付ける問題を指す。
パターンマッチングのためのKnuth-Morris-Prattアルゴリズムに基づく文脈バイアスのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-29T22:50:10Z) - Record Deduplication for Entity Distribution Modeling in ASR Transcripts [0.0]
我々は、誤認識されたエンティティの95%を取得するために、レコード重複を使用します。
文脈バイアスに用いた場合,提案手法は単語誤り率の5%削減を推定する。
論文 参考訳(メタデータ) (2023-06-09T20:42:11Z) - A Discriminative Entity-Aware Language Model for Virtual Assistants [4.2854663014000876]
仮想アシスタント(VA)では,高品質な自動音声認識(ASR)が不可欠である。
本研究は、実世界の知識と矛盾する名前付きエンティティ上の多くのASRエラーを観察することから始める。
我々は、従来の差別的なn-gram言語モデリングアプローチを拡張し、知識グラフから現実世界の知識を取り入れた。
論文 参考訳(メタデータ) (2021-06-21T17:50:28Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z) - Towards Relevance and Sequence Modeling in Language Recognition [39.547398348702025]
本稿では,言語認識における短系列情報を利用したニューラルネットワークフレームワークを提案する。
音声認識タスクの関連性に基づいて、音声データの一部を重み付けする言語認識に関連性を取り入れた新しいモデルを提案する。
NIST LRE 2017 Challengeにおいて、クリーン、ノイズ、マルチ話者音声データを用いて言語認識タスクを用いて実験を行う。
論文 参考訳(メタデータ) (2020-04-02T18:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。