論文の概要: Learning Domain Specific Language Models for Automatic Speech
Recognition through Machine Translation
- arxiv url: http://arxiv.org/abs/2110.10261v1
- Date: Tue, 21 Sep 2021 10:29:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 15:47:30.281336
- Title: Learning Domain Specific Language Models for Automatic Speech
Recognition through Machine Translation
- Title(参考訳): 機械翻訳による自動音声認識のための学習ドメイン固有言語モデル
- Authors: Saurav Jha
- Abstract要約: 我々は、タスク固有のテキストデータの翻訳を最初に取得するために、中間ステップとしてNeural Machine Translationを使用します。
我々はNMTビームサーチグラフから単語混乱ネットワークを導出する手法を開発した。
NMT混在ネットワークは、n-gramと繰り返しニューラルネットワークLMの両方の難易度を低減するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic Speech Recognition (ASR) systems have been gaining popularity in
the recent years for their widespread usage in smart phones and speakers.
Building ASR systems for task-specific scenarios is subject to the availability
of utterances that adhere to the style of the task as well as the language in
question. In our work, we target such a scenario wherein task-specific text
data is available in a language that is different from the target language in
which an ASR Language Model (LM) is expected. We use Neural Machine Translation
(NMT) as an intermediate step to first obtain translations of the task-specific
text data. We then train LMs on the 1-best and N-best translations and study
ways to improve on such a baseline LM. We develop a procedure to derive word
confusion networks from NMT beam search graphs and evaluate LMs trained on
these confusion networks. With experiments on the WMT20 chat translation task
dataset, we demonstrate that NMT confusion networks can help to reduce the
perplexity of both n-gram and recurrent neural network LMs compared to those
trained only on N-best translations.
- Abstract(参考訳): 自動音声認識(asr)システムは、近年、スマートフォンやスピーカーで広く使われているため、人気が高まっている。
タスク固有のシナリオのためのASRシステムの構築は、タスクのスタイルに準拠する発話と、問題となる言語が利用可能になる。
本研究では,ASR言語モデル(LM)が期待される対象言語とは異なる言語で,タスク固有のテキストデータが利用できるようなシナリオをターゲットにしている。
まず,ニューラルマシン翻訳(nmt)を中間ステップとして,タスク固有のテキストデータの翻訳を得る。
次に、1-best と N-best の翻訳でLMを訓練し、そのようなベースライン LM を改善する方法を研究する。
我々は、NMTビームサーチグラフから単語混乱ネットワークを導出する手法を開発し、これらの混乱ネットワークで訓練されたLMを評価する。
WMT20チャット翻訳タスクデータセットの実験により、NMT混在ネットワークは、N-best翻訳にのみ訓練されたものと比較して、n-gramおよび繰り返しニューラルネットワークLMの難易度を低減することができることを示した。
関連論文リスト
- Translation-Enhanced Multilingual Text-to-Image Generation [61.41730893884428]
テキスト・ツー・イメージ・ジェネレーション(TTI)の研究は、現在でも主に英語に焦点を当てている。
そこで本研究では,多言語TTIとニューラルマシン翻訳(NMT)のブートストラップmTTIシステムへの応用について検討する。
我々は,mTTIフレームワーク内で多言語テキスト知識を重み付け,統合する新しいパラメータ効率アプローチであるEnsemble Adapter (EnsAd)を提案する。
論文 参考訳(メタデータ) (2023-05-30T17:03:52Z) - Active Learning for Neural Machine Translation [0.0]
NMTツールキットのJoey NMTにActive Learningと呼ばれるテクニックを組み込んで、低リソース言語翻訳の十分な精度と堅牢な予測を行った。
この研究は、トランスフォーマーベースのNMTシステム、ベースラインモデル(BM)、フルトレーニングモデル(FTM)、アクティブラーニング最小信頼ベースモデル(ALLCM)、アクティブラーニングマージンサンプリングベースモデル(ALMSM)を用いて、英語をヒンディー語に翻訳する。
論文 参考訳(メタデータ) (2022-12-30T17:04:01Z) - End-to-End Speech Translation of Arabic to English Broadcast News [2.375764121997739]
音声翻訳(英: speech translation, ST)とは、ソース言語の音声信号を外国語のテキストに翻訳する作業である。
本稿では,最初のアラビア語から英語への翻訳システムであるブロードキャストニュースの開発に向けた取り組みについて述べる。
論文 参考訳(メタデータ) (2022-12-11T11:35:46Z) - Phrase-level Active Learning for Neural Machine Translation [107.28450614074002]
ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-06-21T19:20:42Z) - FDMT: A Benchmark Dataset for Fine-grained Domain Adaptation in Machine
Translation [53.87731008029645]
機械翻訳(FDMT)における実世界のきめ細かいドメイン適応タスクを提案する。
FDMTデータセットは、自動運転車、AI教育、リアルタイムネットワーク、スマートフォンの4つのサブドメインで構成されている。
この新しい設定で定量的な実験と深い分析を行い、きめ細かいドメイン適応タスクをベンチマークします。
論文 参考訳(メタデータ) (2020-12-31T17:15:09Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - Assessing the Bilingual Knowledge Learned by Neural Machine Translation
Models [72.56058378313963]
NMTモデルで学習したバイリンガル知識をフレーズテーブルで評価することで,このギャップを埋める。
NMTモデルは、単純なものから複雑なものまでパターンを学習し、トレーニング例から本質的なバイリンガル知識を抽出する。
論文 参考訳(メタデータ) (2020-04-28T03:44:34Z) - Neural Machine Translation: Challenges, Progress and Future [62.75523637241876]
機械翻訳(英: Machine translation, MT)は、コンピュータを利用して人間の言語を自動翻訳する技術である。
ニューラルマシン翻訳(NMT)は、ディープニューラルネットワークを用いたソース言語とターゲット言語間の直接マッピングをモデル化する。
この記事では、NMTフレームワークをレビューし、NMTの課題について論じ、最近のエキサイティングな進歩を紹介します。
論文 参考訳(メタデータ) (2020-04-13T07:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。