論文の概要: CSTNet: Contrastive Speech Translation Network for Self-Supervised
Speech Representation Learning
- arxiv url: http://arxiv.org/abs/2006.02814v2
- Date: Wed, 5 Aug 2020 07:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:43:42.607695
- Title: CSTNet: Contrastive Speech Translation Network for Self-Supervised
Speech Representation Learning
- Title(参考訳): CSTNet:自己監督型音声表現学習のためのコントラスト音声翻訳ネットワーク
- Authors: Sameer Khurana, Antoine Laurent, James Glass
- Abstract要約: 7000の言語のうち、半数以上が絶滅の危機にさらされている。
音声に対応するテキスト翻訳は比較的容易である。
音声から言語表現を抽出できる畳み込みニューラルネットワークオーディオエンコーダを構築する。
- 参考スコア(独自算出の注目度): 11.552745999302905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: More than half of the 7,000 languages in the world are in imminent danger of
going extinct. Traditional methods of documenting language proceed by
collecting audio data followed by manual annotation by trained linguists at
different levels of granularity. This time consuming and painstaking process
could benefit from machine learning. Many endangered languages do not have any
orthographic form but usually have speakers that are bi-lingual and trained in
a high resource language. It is relatively easy to obtain textual translations
corresponding to speech. In this work, we provide a multimodal machine learning
framework for speech representation learning by exploiting the correlations
between the two modalities namely speech and its corresponding text
translation. Here, we construct a convolutional neural network audio encoder
capable of extracting linguistic representations from speech. The audio encoder
is trained to perform a speech-translation retrieval task in a contrastive
learning framework. By evaluating the learned representations on a phone
recognition task, we demonstrate that linguistic representations emerge in the
audio encoder's internal representations as a by-product of learning to perform
the retrieval task.
- Abstract(参考訳): 7000以上の言語のうち半数以上が絶滅の危機にさらされている。
従来の言語文書作成法では、音声データを収集し、異なるレベルの粒度で訓練された言語学者による手書きの注釈を付ける。
この時間と手間のかかるプロセスは、機械学習の恩恵を受けるだろう。
多くの絶滅危惧言語は正書法を持たないが、通常はバイリンガルで、高いリソース言語で訓練された話者を持つ。
音声に対応するテキスト翻訳は比較的容易である。
本研究では,音声とそれに対応するテキスト翻訳の2つの様相の相関を利用して,音声表現学習のためのマルチモーダル機械学習フレームワークを提案する。
本稿では,音声から言語表現を抽出する畳み込みニューラルネットワーク音声エンコーダを構築する。
音声エンコーダは、対比学習フレームワークにおいて、音声翻訳検索タスクを実行するように訓練される。
音声認識タスクにおける学習表現の評価により,音声エンコーダの内部表現に言語表現が出現し,検索タスクを行うための学習の副産物となることを示す。
関連論文リスト
- Multilingual self-supervised speech representations improve the speech
recognition of low-resource African languages with codeswitching [65.74653592668743]
微細な自己教師型多言語表現は絶対単語誤り率を最大20%削減する。
訓練データに制限のある状況では、自己教師付き表現を微調整することが、より良いパフォーマンスと実行可能なソリューションである。
論文 参考訳(メタデータ) (2023-11-25T17:05:21Z) - Textless Unit-to-Unit training for Many-to-Many Multilingual Speech-to-Speech Translation [65.13824257448564]
本稿では,多言語多言語音声音声合成のためのテキストレス学習手法を提案する。
音声単位を擬似テキストとして扱うことにより、音声の言語内容に焦点を合わせることができる。
提案するUTUTモデルは,音声音声合成(S2ST)だけでなく,多言語音声合成(T2S)やテキスト音声合成(T2ST)にも有効であることを示す。
論文 参考訳(メタデータ) (2023-08-03T15:47:04Z) - AudioPaLM: A Large Language Model That Can Speak and Listen [79.44757696533709]
本稿では,音声理解・生成のための大規模言語モデルであるAudioPaLMを紹介する。
AudioPaLMはテキストベースの言語モデルと音声ベースの言語モデルを融合する。
音声認識や音声音声翻訳などの応用により、テキストと音声を処理および生成することができる。
論文 参考訳(メタデータ) (2023-06-22T14:37:54Z) - Learning Cross-lingual Visual Speech Representations [108.68531445641769]
言語横断的な自己監督型視覚表現学習は、ここ数年、研究トピックとして成長している。
我々は最近提案したRAVEn(Raw Audio-Visual Speechs)フレームワークを用いて,未ラベルデータを用いた音声-視覚モデルの事前学習を行う。
1)データ量が多いマルチ言語モデルはモノリンガルモデルよりも優れているが、データの量を維持すると、モノリンガルモデルの性能が向上する傾向にある。
論文 参考訳(メタデータ) (2023-03-14T17:05:08Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - CLSRIL-23: Cross Lingual Speech Representations for Indic Languages [0.0]
CLSRIL-23は、23のIndic言語にまたがる生音声から言語間の音声表現を学習する自己教師付き学習ベースモデルである。
wav2vec 2.0の上に構築され、マスク付き潜在音声表現よりも対照的なタスクを訓練することで解決される。
単言語と多言語による事前学習の効果を比較するために,事前学習における言語障害の比較を行った。
論文 参考訳(メタデータ) (2021-07-15T15:42:43Z) - Bridging the Modality Gap for Speech-to-Text Translation [57.47099674461832]
エンド・ツー・エンドの音声翻訳は、ある言語における音声を、エンド・ツー・エンドの方法で他の言語におけるテキストに変換することを目的としている。
既存のほとんどの手法では、音響表現と意味情報を同時に学習するために、単一のエンコーダを持つエンコーダ・デコーダ構造を用いる。
本稿では,音声とテキスト間のモダリティギャップを埋めることで,エンドツーエンドのモデル性能を向上させることを目的とした音声翻訳モデルのための音声テキスト適応手法を提案する。
論文 参考訳(メタデータ) (2020-10-28T12:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。