論文の概要: Improving Long-form Speech Translation through Segmentation with Large
Language Models and Finite State Decoding Constraints
- arxiv url: http://arxiv.org/abs/2310.13678v1
- Date: Fri, 20 Oct 2023 17:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 21:31:45.752231
- Title: Improving Long-form Speech Translation through Segmentation with Large
Language Models and Finite State Decoding Constraints
- Title(参考訳): 大言語モデルと有限状態復号制約による分割による長文音声翻訳の改善
- Authors: Arya D. McCarthy, Hao Zhang, Shankar Kumar, Felix Stahlberg, Ke Wu
- Abstract要約: 我々は、大きな言語モデル(LLM)を、独立に翻訳可能なセグメントに分割するために適応する。
我々の最高のLLMは、英語-ドイツ語、英語-スペイン語、英語-アラビア語のTEDトーク翻訳の平均BLEUを、9つのテストセットで2.9ポイント改善する。
- 参考スコア(独自算出の注目度): 25.618862664337644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One challenge in spoken language translation is that plenty of spoken content
is long-form, but short units are necessary for obtaining high-quality
translations. To address this mismatch, we adapt large language models (LLM) to
split long ASR transcripts into segments that can be independently translated
so as to maximize the overall translation quality. To combat the tendency of
hallucination by LLMs, we incorporate finite-state constraints during decoding
to eliminate invalid outputs. We discover that LLMs are adaptable to
transcripts containing ASR errors through prompt-tuning or fine-tuning. In
comparison to a state-of-the-art automatic punctuation baseline, our best LLM
improves the average BLEU for English-German, English-Spanish, and
English-Arabic TED talk translation in 9 test sets by 2.9 points, just by
improving segmentation.
- Abstract(参考訳): 音声翻訳における1つの課題は、多くの音声コンテンツが長文であるが、高品質翻訳を得るためには短い単位が必要であることである。
このミスマッチに対処するため、我々は大きな言語モデル (LLM) を適用して長いASR転写を独立に翻訳可能なセグメントに分割し、全体的な翻訳品質を最大化する。
llmsによる幻覚の傾向に対処するため,デコード中に有限状態制約を組み込んで不正な出力を除去した。
LLM は, 高速チューニングや微調整により, ASR エラーを含む書き起こしに適応できることが判明した。
最先端の自動句読解ベースラインと比較して、LLMは、セグメンテーションを改善するだけで、英語-ドイツ語、英語-スペイン語、英語-アラビア語のTEDトーク翻訳を9つのテストセットで2.9ポイント改善する。
関連論文リスト
- Blending LLMs into Cascaded Speech Translation: KIT's Offline Speech Translation System for IWSLT 2024 [61.189875635090225]
大規模言語モデル (LLM) は現在,自動音声認識 (ASR) や機械翻訳 (MT) ,さらにはエンドツーエンド音声翻訳 (ST) など,さまざまなタスクを探索中である。
論文 参考訳(メタデータ) (2024-06-24T16:38:17Z) - The Fine-Tuning Paradox: Boosting Translation Quality Without Sacrificing LLM Abilities [18.175795328685986]
機械翻訳のための微調整大型言語モデル(LLM)は、全体的な翻訳品質が改善されている。
モデルサイズは70億から65億までの範囲で,LLaMAおよびファルコン系のモデルに対して広範な翻訳評価を行う。
フォーマルなステアリングを行う能力の低下、数ショットの例による技術的翻訳の作成、文書レベルの翻訳を行う能力の低下を観察する。
論文 参考訳(メタデータ) (2024-05-30T14:25:56Z) - Fine-Tuning Large Language Models to Translate: Will a Touch of Noisy Data in Misaligned Languages Suffice? [33.376648335299116]
大きな言語モデル(LLM)は、32のパラレル文で微調整された後、強い翻訳能力を示す。
英語のみを対象とするLLMは、非英語への翻訳を妨げるタスクの誤解釈につながる可能性がある。
未表現言語で合成されたデータは、顕著な効果が低い。
論文 参考訳(メタデータ) (2024-04-22T12:21:12Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Salute the Classic: Revisiting Challenges of Machine Translation in the
Age of Large Language Models [91.6543868677356]
ニューラルネットワーク翻訳の進化は、6つのコア課題の影響を受けている。
これらの課題には、ドメインミスマッチ、並列データの量、まれな単語予測、長文の翻訳、単語アライメントとしてのアテンションモデル、そして準最適ビームサーチが含まれる。
この研究はこれらの課題を再考し、先進的な大規模言語モデルにおけるそれらの継続的な関連性についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-16T13:30:09Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z) - Improved Long-Form Spoken Language Translation with Large Language
Models [15.792204200145251]
我々は、ASRの長い書き起こしを独立に翻訳できるセグメントに分割するために、汎用で大規模な言語モデルを微調整する。
提案手法は,3言語におけるBLEUスコアを,自動句読点よりも平均2.7BLEUで改善する。
論文 参考訳(メタデータ) (2022-12-19T22:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。