論文の概要: Fine-Tuned Self-Supervised Speech Representations for Language
Diarization in Multilingual Code-Switched Speech
- arxiv url: http://arxiv.org/abs/2312.09645v1
- Date: Fri, 15 Dec 2023 09:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:27:42.060928
- Title: Fine-Tuned Self-Supervised Speech Representations for Language
Diarization in Multilingual Code-Switched Speech
- Title(参考訳): 多言語符号化音声における言語ダイアリゼーションのための微調整自己教師付き音声表現
- Authors: Geoffrey Frost, Emily Morris, Joshua Jansen van V\"uren, Thomas
Niesler
- Abstract要約: 大規模自己教師型アーキテクチャ(WavLM)から抽出した微調整音声表現を用いた連続多言語ダイアリザを開発した。
南アフリカ語5言語(isiZulu, isiXa, Seswana, Sesotho, English)からなるコード交換コーパスを実験した。
- 参考スコア(独自算出の注目度): 4.39549503760707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotating a multilingual code-switched corpus is a painstaking process
requiring specialist linguistic expertise. This is partly due to the large
number of language combinations that may appear within and across utterances,
which might require several annotators with different linguistic expertise to
consider an utterance sequentially. This is time-consuming and costly. It would
be useful if the spoken languages in an utterance and the boundaries thereof
were known before annotation commences, to allow segments to be assigned to the
relevant language experts in parallel. To address this, we investigate the
development of a continuous multilingual language diarizer using fine-tuned
speech representations extracted from a large pre-trained self-supervised
architecture (WavLM). We experiment with a code-switched corpus consisting of
five South African languages (isiZulu, isiXhosa, Setswana, Sesotho and English)
and show substantial diarization error rate improvements for language families,
language groups, and individual languages over baseline systems.
- Abstract(参考訳): 多言語コード切り換えコーパスの注釈付けは、専門的な言語知識を必要とする面倒なプロセスである。
これは、発話中に現れる可能性のある多数の言語の組み合わせが、発話を順次考慮するために、異なる言語的専門知識を持つ複数の注釈家を必要とする可能性があるためである。
これは時間と費用がかかります。
発話中の音声言語とその境界がアノテーションの開始前に知られていた場合、セグメントを関連する言語専門家に並行して割り当てることができる。
本研究では,事前学習型自己教師付きアーキテクチャ(wavlm)から抽出した微調整音声表現を用いた連続多言語用ダイアリゼータの開発について検討する。
5つの南アフリカ語(isizulu, isixhosa, setwana, sesotho, english)からなるコード交換コーパスを実験し,ベースラインシステム上での言語ファミリー,言語グループ,個々の言語に対するダイアリゼーションエラー率の改善を示す。
関連論文リスト
- Lens: Rethinking Multilingual Enhancement for Large Language Models [70.85065197789639]
Lensは、大規模言語モデル(LLM)の多言語機能を強化する新しいアプローチである
LLMの上位層から言語に依存しない、言語固有のサブ空間内の隠された表現を操作できる。
既存のポストトレーニング手法に比べて計算資源がはるかに少ないため、優れた結果が得られる。
論文 参考訳(メタデータ) (2024-10-06T08:51:30Z) - Modular Sentence Encoders: Separating Language Specialization from Cross-Lingual Alignment [50.80949663719335]
文埋め込みの言語間アライメントの訓練は、個々の言語の意味空間の最適な単言語構造を歪ませる。
我々は、言語間の負の干渉を避けるために、言語固有の文エンコーダを訓練する。
次に、英語以外のすべてのモノリンガルエンコーダを英語エンコーダにアライメントし、その上にクロスリンガルアライメントアダプタをトレーニングする。
論文 参考訳(メタデータ) (2024-07-20T13:56:39Z) - Improving In-context Learning of Multilingual Generative Language Models with Cross-lingual Alignment [42.624862172666624]
本稿では,一対の翻訳文を利用する単純な言語間アライメントフレームワークを提案する。
多言語コントラスト学習を通じて、異なる言語にまたがる内部文表現を整合させる。
実験結果から,事前学習トークンが0.1文未満であっても,アライメントフレームワークは生成言語モデルの言語間相互性を大幅に向上させることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-14T11:24:08Z) - Language Model Tokenizers Introduce Unfairness Between Languages [98.92630681729518]
トークン化段階では,モデルが呼び出される直前に,異なる言語に対する扱いの相違が生じることを示す。
文字レベルとバイトレベルのモデルも、いくつかの言語ペアの符号化長の4倍以上の差を示している。
我々は、多言語で公平なサブワードトークン化器を用いて、将来の言語モデルを訓練するべきだと仮定する。
論文 参考訳(メタデータ) (2023-05-17T14:17:57Z) - MoLE : Mixture of Language Experts for Multi-Lingual Automatic Speech
Recognition [12.23416994447554]
我々はMixture-of-Language-Expert(MoLE)という多言語音声認識ネットワークを提案する。
MoLEは、任意の言語で入力された音声から言語表現を分析し、軽量な言語トークン化器で言語固有の専門家を活性化する。
信頼性に基づいて、アクティベートされた専門家と言語に依存しない専門家を集約し、言語条件の埋め込みを表現する。
論文 参考訳(メタデータ) (2023-02-27T13:26:17Z) - Massively Multilingual Lexical Specialization of Multilingual
Transformers [18.766379322798837]
本稿では,2つの標準言語間語彙タスクにおいて,多言語レキシカル特殊化が著しく向上することを示す。
我々は,語彙制約のない言語への多言語語彙の特殊化によって一般化できることを示唆し,特殊化に欠かせない言語に対するゲインを観察する。
論文 参考訳(メタデータ) (2022-08-01T17:47:03Z) - LAE: Language-Aware Encoder for Monolingual and Multilingual ASR [87.74794847245536]
言語固有の情報を混在させることにより,両状況に対処する新しい言語対応エンコーダ (LAE) アーキテクチャを提案する。
マンダリン・イングリッシュ・コードスウィッチ音声を用いた実験により,LAEはフレームレベルで異なる言語を識別できることが示唆された。
論文 参考訳(メタデータ) (2022-06-05T04:03:12Z) - Phylogeny-Inspired Adaptation of Multilingual Models to New Languages [43.62238334380897]
我々は、言語系統情報を用いて、密接に関連する言語を活用する言語間移動を改善する方法を示す。
我々は,多言語(ゲルマン語,ウルリック語,トゥピ語,ウト・アステカン語)の言語をアダプタベースで学習し,構文的・意味的タスクの評価を行う。
論文 参考訳(メタデータ) (2022-05-19T15:49:19Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。