論文の概要: Improving Distinction between ASR Errors and Speech Disfluencies with
Feature Space Interpolation
- arxiv url: http://arxiv.org/abs/2108.01812v1
- Date: Wed, 4 Aug 2021 02:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:14:38.872374
- Title: Improving Distinction between ASR Errors and Speech Disfluencies with
Feature Space Interpolation
- Title(参考訳): 特徴空間補間によるASR誤りと音声の拡散の判別の改善
- Authors: Seongmin Park, Dongchan Shin, Sangyoun Paik, Subong Choi, Alena
Kazakova, Jihwa Lee
- Abstract要約: 微調整事前訓練言語モデル(LM)は,後処理における自動音声認識(ASR)エラー検出において一般的な手法である。
本稿では,既存のLMベースのASR誤り検出システムの改良手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning pretrained language models (LMs) is a popular approach to
automatic speech recognition (ASR) error detection during post-processing.
While error detection systems often take advantage of statistical language
archetypes captured by LMs, at times the pretrained knowledge can hinder error
detection performance. For instance, presence of speech disfluencies might
confuse the post-processing system into tagging disfluent but accurate
transcriptions as ASR errors. Such confusion occurs because both error
detection and disfluency detection tasks attempt to identify tokens at
statistically unlikely positions. This paper proposes a scheme to improve
existing LM-based ASR error detection systems, both in terms of detection
scores and resilience to such distracting auxiliary tasks. Our approach adopts
the popular mixup method in text feature space and can be utilized with any
black-box ASR output. To demonstrate the effectiveness of our method, we
conduct post-processing experiments with both traditional and end-to-end ASR
systems (both for English and Korean languages) with 5 different speech
corpora. We find that our method improves both ASR error detection F 1 scores
and reduces the number of correctly transcribed disfluencies wrongly detected
as ASR errors. Finally, we suggest methods to utilize resulting LMs directly in
semi-supervised ASR training.
- Abstract(参考訳): 微調整事前訓練言語モデル(LM)は,後処理における自動音声認識(ASR)エラー検出において一般的な手法である。
誤り検出システムは、LMが捉えた統計的言語アーチタイプを利用することが多いが、事前訓練された知識はエラー検出性能を阻害することがある。
例えば、音声の不均一性の存在は、処理後システムをasrエラーとして正確な転写をタグ付けする不均一性に混乱させる可能性がある。
このような混乱は、エラー検出と拡散検出タスクの両方が統計的に不可能な位置にあるトークンを識別しようとするために起こる。
本稿では,既存のlmベースasrエラー検出システムを改善するための手法を提案する。
提案手法はテキスト特徴空間で一般的なミックスアップ方式を採用し,任意のブラックボックスASR出力で利用することができる。
提案手法の有効性を示すため,従来のASRシステムとエンドツーエンドのASRシステム(英語と韓国語の両方)と5種類の音声コーパスを用いた後処理実験を行った。
提案手法は,asrエラー検出f1スコアを改良し,asrエラーとして誤検出された不正解析回数を減少させる。
最後に,半教師付きASRトレーニングにおいて,結果のLMを直接利用する手法を提案する。
関連論文リスト
- A Coin Has Two Sides: A Novel Detector-Corrector Framework for Chinese Spelling Correction [79.52464132360618]
中国語のSpelling Correction(CSC)は、自然言語処理(NLP)の基本課題である。
本稿では,エラー検出・相関器の枠組みに基づく新しい手法を提案する。
我々の検出器は2つのエラー検出結果を得るように設計されており、それぞれ高精度とリコールが特徴である。
論文 参考訳(メタデータ) (2024-09-06T09:26:45Z) - Towards interfacing large language models with ASR systems using confidence measures and prompting [54.39667883394458]
本研究では,大言語モデル(LLM)を用いたASRテキストのポストホック修正について検討する。
精度の高い転写文に誤りを導入することを避けるため,信頼度に基づくフィルタリング手法を提案する。
その結果,競争力の低いASRシステムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-07-31T08:00:41Z) - Error Correction by Paying Attention to Both Acoustic and Confidence References for Automatic Speech Recognition [52.624909026294105]
本稿では,非自己回帰型音声誤り訂正法を提案する。
信頼モジュールは、N-best ASR仮説の各単語の不確実性を測定する。
提案方式は,ASRモデルと比較して誤差率を21%削減する。
論文 参考訳(メタデータ) (2024-06-29T17:56:28Z) - It's Never Too Late: Fusing Acoustic Information into Large Language
Models for Automatic Speech Recognition [70.77292069313154]
大規模言語モデル(LLM)は、自動音声認識(ASR)出力の上の生成誤り訂正(GER)に成功することができる。
本研究では,不確実性認識ダイナミックフュージョン (UADF) と呼ばれる新しい遅延融合解によって予測された転写を生成する前に,音響情報を注入することにより,そのような制限を克服することを目的とする。
論文 参考訳(メタデータ) (2024-02-08T07:21:45Z) - Error Correction in ASR using Sequence-to-Sequence Models [32.41875780785648]
自動音声認識における後編集では、ASRシステムによって生成された共通および系統的な誤りを自動的に修正する必要がある。
本稿では,事前学習型シーケンス・ツー・シーケンス・モデルであるBARTを用いて,デノナイジングモデルとして機能することを提案する。
アクセント付き音声データによる実験結果から,ASRの誤りを効果的に修正できることが示唆された。
論文 参考訳(メタデータ) (2022-02-02T17:32:59Z) - Cross-Modal ASR Post-Processing System for Error Correction and
Utterance Rejection [25.940199825317073]
音声認識のためのクロスモーダル後処理システムを提案する。
音響的特徴とテキスト的特徴を異なるモダリティから融合させる。
マルチタスク学習方式で信頼度推定器と誤り訂正器を結合する。
論文 参考訳(メタデータ) (2022-01-10T12:29:55Z) - An Approach to Improve Robustness of NLP Systems against ASR Errors [39.57253455717825]
音声対応システムは通常、音声を自動音声認識モデルを介してテキストに変換し、テキストを下流の自然言語処理モジュールに供給します。
ASRシステムのエラーは、NLPモジュールの性能を著しく低下させる可能性がある。
これまでの研究では、トレーニングプロセス中にasrノイズを注入することにより、この問題を解決するためにデータ拡張手法を用いることが有効であることが示されている。
論文 参考訳(メタデータ) (2021-03-25T05:15:43Z) - Hallucination of speech recognition errors with sequence to sequence
learning [16.39332236910586]
プレーンテキストデータを使用して話し言葉理解やASRのためのシステムのトレーニングを行う場合、証明された戦略は、ASR出力が金の転写を与えるであろうものを幻覚することです。
本稿では,asr語列の幻覚的出力,入力語列の条件づけ,対応する音素列を直接予測する新しいエンドツーエンドモデルを提案する。
これにより、ドメイン内ASRシステムの未確認データの転写からのエラーのリコール、およびドメイン外ASRシステムの非関連タスクからのオーディオの転写の以前の結果が改善されます。
論文 参考訳(メタデータ) (2021-03-23T02:09:39Z) - End-to-End Speech Recognition and Disfluency Removal [15.910282983166024]
本稿では,エンド・ツー・エンド音声認識とディフルエンシ除去の課題について検討する。
エンド・ツー・エンドのモデルでは、フロート・トランスクリプトを直接生成できることが示されている。
統合型ASRモデルと非フルエンシモデルの評価に使用できる2つの新しい指標を提案する。
論文 参考訳(メタデータ) (2020-09-22T03:11:37Z) - Improving Readability for Automatic Speech Recognition Transcription [50.86019112545596]
我々は、可読性のためのASRポストプロセッシング(APR)と呼ばれる新しいNLPタスクを提案する。
APRは、ノイズの多いASR出力を、話者の意味を保ちながら、人間や下流タスクのための読みやすいテキストに変換することを目的としている。
我々は,いくつかのオープンソースモデルと適応型事前学習モデルに基づく微調整モデルと,従来のパイプライン手法との比較を行った。
論文 参考訳(メタデータ) (2020-04-09T09:26:42Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。