論文の概要: Quantifying Cross-Lingual Transfer in Paralinguistic Speech Tasks
- arxiv url: http://arxiv.org/abs/2603.08231v1
- Date: Mon, 09 Mar 2026 11:02:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.8198
- Title: Quantifying Cross-Lingual Transfer in Paralinguistic Speech Tasks
- Title(参考訳): パラ言語音声課題における言語間移動の定量化
- Authors: Pol Buitrago, Oriol Pareras, Federico Costa, Javier Hernando,
- Abstract要約: 言語間の言語間相互作用を定量化するための体系的手法であるCLTM(Cross-Lingual Transfer Matrix)を提案する。
我々は,多言語HuBERTエンコーダを用いて,ジェンダー識別と話者検証という2つのパラ言語課題にCLTMを適用した。
この結果から,タスクや言語間の異なる伝達パターンが明らかとなり,言語に依存した系統的な影響が反映された。
- 参考スコア(独自算出の注目度): 4.911970211082446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Paralinguistic speech tasks are often considered relatively language-agnostic, as they rely on extralinguistic acoustic cues rather than lexical content. However, prior studies report performance degradation under cross-lingual conditions, indicating non-negligible language dependence. Still, these studies typically focus on isolated language pairs or task-specific settings, limiting comparability and preventing a systematic assessment of task-level language dependence. We introduce the Cross-Lingual Transfer Matrix (CLTM), a systematic method to quantify cross-lingual interactions between pairs of languages within a given task. We apply the CLTM to two paralinguistic tasks, gender identification and speaker verification, using a multilingual HuBERT-based encoder, to analyze how donor-language data affects target-language performance during fine-tuning. Our results reveal distinct transfer patterns across tasks and languages, reflecting systematic, language-dependent effects.
- Abstract(参考訳): パラ言語的音声タスクは、しばしば比較的言語に依存しないと考えられ、語彙内容よりも言語外音響的手がかりに依存している。
しかし,先行研究では言語間条件下での性能劣化が報告され,非無視言語依存が示唆された。
しかしながら、これらの研究は通常、独立した言語ペアやタスク固有の設定に焦点を当て、互換性を制限し、タスクレベルの言語依存を体系的に評価するのを防ぐ。
本稿では,言語間の言語間相互作用を与えられたタスク内で定量化する手法であるCLTM(Cross-Lingual Transfer Matrix)を提案する。
CLTMを多言語HuBERTエンコーダを用いて、性別識別と話者検証という2つのパラ言語的タスクに適用し、微調整中にドナー言語データがターゲット言語のパフォーマンスに与える影響を分析する。
この結果から,タスクや言語間の異なる伝達パターンが明らかとなり,言語に依存した系統的な影響が反映された。
関連論文リスト
- When Meanings Meet: Investigating the Emergence and Quality of Shared Concept Spaces during Multilingual Language Model Training [57.230355403478995]
本研究では,EuroLLMの事前学習における言語に依存しない概念空間の開発について検討する。
共有概念空間は早期に出現し、洗練され続けていますが、それらとの整合性は言語に依存しています。
従来の作業とは対照的に、細かな手作業分析により、翻訳品質の顕著な向上は、行動の変化を反映していることが判明した。
論文 参考訳(メタデータ) (2026-01-30T11:23:01Z) - Can you map it to English? The Role of Cross-Lingual Alignment in Multilingual Performance of LLMs [12.334510055293535]
大きな言語モデル (LLMs) は英語のテキストに基づいて事前訓練されており、驚くべき多言語機能を示している。
識別タスクのインスタンスレベルでのアライメントを定量化するために、言語間アライメントメトリクスを導入します。
言語間アライメントの指標は言語レベルでのタスク精度と強く相関するが,サンプルレベルのアライメントは誤予測と正しく区別できないことが多い。
論文 参考訳(メタデータ) (2025-04-13T00:01:22Z) - Analyzing the Effect of Linguistic Similarity on Cross-Lingual Transfer: Tasks and Experimental Setups Matter [5.237387600625361]
低リソース環境下でのNLPタスクのトレーニングデータ量を増やすために、言語間転送が一般的なアプローチである。
本研究では,263言語間の言語間移動を多種多様な言語群から分析する。
論文 参考訳(メタデータ) (2025-01-24T13:48:10Z) - Modular Sentence Encoders: Separating Language Specialization from Cross-Lingual Alignment [50.80949663719335]
多言語文エンコーダ(MSE)は、多言語言語モデルを訓練し、異なる言語からの文を共有意味空間にマッピングすることで一般的に得られる。
MSEは、パラメータ共有による単言語表現精度の喪失である多言語性の呪いを受ける。
我々は、異なる言語間タスクの矛盾する要求を解決するために、2つの異なるタイプのデータで言語間アダプタを訓練する。
論文 参考訳(メタデータ) (2024-07-20T13:56:39Z) - Mitigating the Linguistic Gap with Phonemic Representations for Robust Cross-lingual Transfer [26.014079273740485]
多言語理解の改善へのアプローチは、高リソース言語と低リソース言語の間の大きなパフォーマンスギャップに悩まされることが多い。
本研究は,12言語を対象とした3つの言語間タスクに関する実験である。
音韻表現は、正書法表現と比較して言語間の類似性が高い。
論文 参考訳(メタデータ) (2024-02-22T04:41:52Z) - When is BERT Multilingual? Isolating Crucial Ingredients for
Cross-lingual Transfer [15.578267998149743]
サブワード重複の欠如は,言語が単語順に異なる場合,ゼロショット転送に大きく影響することを示す。
言語間の伝達性能と単語埋め込みアライメントの間には強い相関関係がある。
その結果、言語間の単語埋め込みアライメントを明示的に改善する多言語モデルに焦点が当てられた。
論文 参考訳(メタデータ) (2021-10-27T21:25:39Z) - A Massively Multilingual Analysis of Cross-linguality in Shared
Embedding Space [61.18554842370824]
言語間モデルでは、多くの異なる言語に対する表現は同じ空間に存在している。
我々は,bitext検索性能の形式で,言語間アライメントのタスクベース尺度を計算した。
我々はこれらのアライメント指標の潜在的な予測因子として言語的、準言語的、および訓練関連の特徴について検討する。
論文 参考訳(メタデータ) (2021-09-13T21:05:37Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。