論文の概要: Preparing an Endangered Language for the Digital Age: The Case of
Judeo-Spanish
- arxiv url: http://arxiv.org/abs/2205.15599v1
- Date: Tue, 31 May 2022 08:26:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:54:26.106289
- Title: Preparing an Endangered Language for the Digital Age: The Case of
Judeo-Spanish
- Title(参考訳): デジタル時代の絶滅危惧言語の作成 : ジュデオ・スペインを事例として
- Authors: Alp \"Oktem, Rodolfo Zevallos, Yasmin Moslem, G\"une\c{s} \"Ozt\"urk,
Karen \c{S}arhon
- Abstract要約: ジュデオ・スペイン語の再活性化の取り組みを補完する機械翻訳と音声合成システムを開発した。
機械翻訳では、まずスペイン語からスペイン語への規則に基づく機械翻訳システムを開発する。
本稿では,音声合成エンジンを構築するための3.5時間1話者音声コーパスを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We develop machine translation and speech synthesis systems to complement the
efforts of revitalizing Judeo-Spanish, the exiled language of Sephardic Jews,
which survived for centuries, but now faces the threat of extinction in the
digital age. Building on resources created by the Sephardic community of Turkey
and elsewhere, we create corpora and tools that would help preserve this
language for future generations. For machine translation, we first develop a
Spanish to Judeo-Spanish rule-based machine translation system, in order to
generate large volumes of synthetic parallel data in the relevant language
pairs: Turkish, English and Spanish. Then, we train baseline neural machine
translation engines using this synthetic data and authentic parallel data
created from translations by the Sephardic community. For text-to-speech
synthesis, we present a 3.5 hour single speaker speech corpus for building a
neural speech synthesis engine. Resources, model weights and online inference
engines are shared publicly.
- Abstract(参考訳): 我々は、何世紀にもわたって生き残ったセファルディム系ユダヤ人の亡命言語であるユダヤ・スペイン語を復活させる努力を補完するために、機械翻訳と音声合成システムを開発したが、現在ではデジタル時代の絶滅の脅威に直面している。
トルコのセファルディク人コミュニティによって作られた資源に基づいて、私たちはこの言語を将来の世代に保存するためのコーパスとツールを作りました。
機械翻訳では、まずスペイン語からスペイン語への規則に基づく機械翻訳システムを開発し、関連する言語対(トルコ語、英語、スペイン語)で大量の合成並列データを生成する。
そして、この合成データとセファルディック・コミュニティの翻訳から生成された真の並列データを用いてベースラインニューラルネットワーク翻訳エンジンを訓練する。
本稿では,音声合成エンジンを構築するための3.5時間1話者音声コーパスを提案する。
リソース、モデルウェイト、オンライン推論エンジンが公開されています。
関連論文リスト
- Enhancing Language Learning through Technology: Introducing a New English-Azerbaijani (Arabic Script) Parallel Corpus [0.9051256541674136]
本稿では,英語・アゼルバイジャン語の並列コーパスについて紹介する。
これは、低リソース言語のための言語学習と機械翻訳の技術的ギャップを埋めるように設計されている。
論文 参考訳(メタデータ) (2024-07-06T21:23:20Z) - CoSTA: Code-Switched Speech Translation using Aligned Speech-Text Interleaving [61.73180469072787]
インド語から英語のテキストへのコード変更音声の音声翻訳(ST)の問題に焦点をあてる。
本稿では、事前訓練された自動音声認識(ASR)と機械翻訳(MT)モジュールを足場として、新しいエンドツーエンドモデルアーキテクチャCOSTAを提案する。
COSTAは、多くの競合するカスケードおよびエンドツーエンドのマルチモーダルベースラインを3.5BLEUポイントまで上回っている。
論文 参考訳(メタデータ) (2024-06-16T16:10:51Z) - TransVIP: Speech to Speech Translation System with Voice and Isochrony Preservation [97.54885207518946]
カスケード方式で多様なデータセットを活用する新しいモデルフレームワークTransVIPを提案する。
本稿では、話者の音声特性と、翻訳過程における音源音声からの等時性を維持するために、2つの分離エンコーダを提案する。
フランス語と英語のペアに関する実験により、我々のモデルは、現在最先端の音声音声翻訳モデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-05-28T04:11:37Z) - MegaWika: Millions of reports and their sources across 50 diverse
languages [74.3909725023673]
MegaWikaは、50の言語で1300万のWikipedia記事と、7100万の参考資料で構成されている。
我々は、このデータセットを無数のアプリケーションに処理し、非英語の記事を言語間アプリケーションに翻訳する。
MegaWikaは、文レベルのレポート生成のための最大のリソースであり、マルチランガルである唯一のレポート生成データセットである。
論文 参考訳(メタデータ) (2023-07-13T20:04:02Z) - Neural Machine Translation Data Generation and Augmentation using
ChatGPT [5.815623778585195]
手動並列コーパスの代替として,生成言語モデルを用いて生成した幻覚並列コーパスについて検討する。
実験では、出力の多様性の欠如にもかかわらず、幻覚データにより翻訳信号が改善された。
論文 参考訳(メタデータ) (2023-07-11T20:15:47Z) - PolyVoice: Language Models for Speech to Speech Translation [50.31000706309143]
PolyVoiceは音声音声翻訳のための言語モデルに基づくフレームワーク
我々は、完全に教師なしの方法で生成される離散化音声単位を使用する。
音声合成部では、既存のVALL-E Xアプローチを採用し、単位ベース音声言語モデルを構築する。
論文 参考訳(メタデータ) (2023-06-05T15:53:15Z) - Building African Voices [125.92214914982753]
本稿では,低リソースのアフリカ言語を対象とした音声合成について述べる。
我々は,最小限の技術資源で音声合成システムを構築するための汎用的な指示セットを作成する。
研究者や開発者を支援するために、12のアフリカ言語のための音声データ、コード、訓練された音声をリリースします。
論文 参考訳(メタデータ) (2022-07-01T23:28:16Z) - Face-Dubbing++: Lip-Synchronous, Voice Preserving Translation of Videos [54.08224321456871]
このシステムは、複数のコンポーネントモデルを組み合わせて、ターゲット言語で話す元の話者のビデオを生成するように設計されている。
パイプラインは強調検出を含む自動音声認識から始まり、その後に翻訳モデルが続く。
得られた合成音声は、音声変換モデルを用いて元の話者の声にマッピングされる。
論文 参考訳(メタデータ) (2022-06-09T14:15:37Z) - Talking Face Generation with Multilingual TTS [0.8229645116651871]
音声合成システムと音声合成システムを組み合わせたシステムを提案する。
本システムは,話者の発声性を保ちながら,自然な多言語音声を合成することができる。
デモでは、事前処理ステージに翻訳APIを追加して、ニューラルダバーの形式で提示しています。
論文 参考訳(メタデータ) (2022-05-13T02:08:35Z) - TTS-Portuguese Corpus: a corpus for speech synthesis in Brazilian
Portuguese [0.7237361833933973]
この作業は、新しいデータセットの形で、ブラジルポルトガル語のための公開リソースを作成することで構成されている。
RTISI-LAボコーダを搭載したタコトロン2は最高の性能を示し、4.03 MOSの値を得た。
論文 参考訳(メタデータ) (2020-05-11T14:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。