論文の概要: Context-Enhanced Granular Edit Representation for Efficient and Accurate ASR Post-editing
- arxiv url: http://arxiv.org/abs/2509.14263v1
- Date: Sat, 13 Sep 2025 16:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.892687
- Title: Context-Enhanced Granular Edit Representation for Efficient and Accurate ASR Post-editing
- Title(参考訳): 高精度かつ高精度なASR後編集のための文脈拡張粒度編集表現法
- Authors: Luan Vejsiu, Qianyu Zheng, Haoxuan Chen, Yizhou Han,
- Abstract要約: ASR技術は産業や人口の大部分で広く採用されているが、ASRシステムにはエディターがテキストの品質を後付けする必要があるエラーがしばしばある。
本稿では,高精度で効率的なASR後編集のためのコンパクトな編集表現であるCEGERを紹介する。
CEGERは最先端の精度を達成し、完全書き直しと事前のコンパクト表現よりも低い単語誤り率(WER)を達成する。
- 参考スコア(独自算出の注目度): 3.219880761967806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite ASR technology being full-scale adopted by industry and for large portions of the population, ASR systems often have errors that require editors to post-edit text quality. While LLMs are powerful post-editing tools, baseline full rewrite models have inference inefficiencies because they often generate the same redundant text over and over again. Compact edit representations have existed but often lack the efficacy and context required for optimal accuracy. This paper introduces CEGER (Context-Enhanced Granular Edit Representation), a compact edit representation that was generated for highly accurate, efficient ASR post-editing. CEGER allows LLMs to generate a sequence of structured, fine-grained, contextually rich commands to modify the original ASR output. A separate expansion module deterministically reconstructs the corrected text based on the commands. Extensive experiments on the LibriSpeech dataset that were conducted, CEGER achieves state-of-the-art accuracy, achieving the lowest word error rate (WER) versus full rewrite and prior compact representations.
- Abstract(参考訳): ASR技術は産業や人口の大部分で広く採用されているが、ASRシステムにはエディターがテキストの品質を後付けする必要があるエラーがしばしばある。
LLMは強力な後編集ツールであるが、ベースラインの完全な書き換えモデルは、しばしば同じ冗長テキストを何度も生成するため、推論の非効率性を持つ。
コンパクトな編集表現は存在するが、しばしば最適な精度に必要な有効性や文脈を欠いている。
本稿では,高精度で効率的なASR後編集のためのコンパクトな編集表現であるCEGER(Context-Enhanced Granular Edit Representation)を紹介する。
CEGERは、LLMが構造化され、きめ細かな、文脈的にリッチなコマンド列を生成して、元のASR出力を変更することを可能にする。
別個の拡張モジュールは、コマンドに基づいて修正されたテキストを確定的に再構築する。
CEGERは、LibriSpeechデータセットの大規模な実験を行い、最先端の精度を達成し、完全書き直しと事前のコンパクト表現に対して最低単語誤り率(WER)を達成する。
関連論文リスト
- MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed Retention for LLMs [76.28901550926021]
寿命の長いモデル編集のための既存の方法は、妥協の一般化、過去の編集の妨害、長い編集シーケンスへのスケールの失敗である。
我々は,学習済みモデルのコア能力を保ちながら,残メモリを介して知識を注入する,新しいスケーラブルなフレームワークMEMOIRを提案する。
MeMOIRは信頼性、一般化、ローカリティのメトリクスにまたがる最先端のパフォーマンスを実現し、最小限の忘れ物で数千のシーケンシャルな編集にスケールする。
論文 参考訳(メタデータ) (2025-06-09T16:16:42Z) - Constraining Sequential Model Editing with Editing Anchor Compression [40.93064933191375]
大型言語モデル(LLM)は、誤った知識や時代遅れの知識によって幻覚に苦しむ。
本稿では, 編集後のパラメータ行列が, 編集数の増加に伴って, 以前の状態と大きくずれていることを統計的に観察する。
逐次的編集におけるパラメータ行列の偏差を抑制するため,EAC (Editing Anchor Compression) というフレームワークが提案されている。
論文 参考訳(メタデータ) (2025-02-25T03:56:49Z) - Bridging the Editing Gap in LLMs: FineEdit for Precise and Targeted Text Modifications [4.751608548909266]
FineEditは、コンテキスト対応のテキスト修正のために明示的に訓練された特殊な編集モデルである。
FineEditはシングルターン編集で最先端のモデルより優れており、Llama-3.2-3Bより30%も上回り、Mistral-7B-OpenOrcaのパフォーマンスを40%以上上回っている。
論文 参考訳(メタデータ) (2025-02-19T01:41:44Z) - Predicting Compact Phrasal Rewrites with Large Language Models for ASR Post Editing [18.962260162806988]
LLM(Large Language Models)は、テキストスタイルの転送や文法的誤り訂正といったタスクの書き直しに優れた言語モデルである。
本稿では,フレーズに基づく統計的機械翻訳に触発された代替語句表現を提案する。
論文 参考訳(メタデータ) (2025-01-23T16:54:27Z) - Assessing Human Editing Effort on LLM-Generated Texts via Compression-Based Edit Distance [2.1792283995628465]
Levenshtein、BLEU、ROUGE、TERといった既存の編集距離のメトリクスは、後編集に必要な労力を正確に測定できないことが多い。
本稿では,Lempel-Ziv-77アルゴリズムに基づく新しい圧縮ベース編集距離測定手法を提案する。
論文 参考訳(メタデータ) (2024-12-23T06:29:25Z) - ELDER: Enhancing Lifelong Model Editing with Mixture-of-LoRA [55.697627106315004]
大規模言語モデル(LLM)は、特定の知識を効率的に更新し、事実の誤りを避けるためにモデル編集を必要とする。
従来のアプローチでは、元のパラメータを凍結し、知識更新毎に新しいパラメータを個別に割り当てることで、シーケンシャルな編集を管理する。
本稿では,データとアダプタを連続的に関連付ける新しい手法であるELDERを提案する。
論文 参考訳(メタデータ) (2024-08-19T02:27:00Z) - Factual Error Correction for Abstractive Summaries Using Entity
Retrieval [57.01193722520597]
本稿では,エンティティ検索後処理に基づく効率的な事実誤り訂正システムRFECを提案する。
RFECは、原文と対象要約とを比較して、原文から証拠文を検索する。
次に、RFECは、エビデンス文を考慮し、要約中のエンティティレベルのエラーを検出し、エビデンス文から正確なエンティティに置換する。
論文 参考訳(メタデータ) (2022-04-18T11:35:02Z) - FastCorrect: Fast Error Correction with Edit Alignment for Automatic
Speech Recognition [90.34177266618143]
編集アライメントに基づく新しいNAR誤り訂正モデルであるFastCorrectを提案する。
fastcorrectは推論を6-9倍高速化し、自己回帰補正モデルと比較して精度を8-14%向上させる。
ニューラルマシン翻訳で採用されている一般的なNARモデルの精度を、大きなマージンで上回っています。
論文 参考訳(メタデータ) (2021-05-09T05:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。