論文の概要: Iterative Multilingual Spectral Attribute Erasure
- arxiv url: http://arxiv.org/abs/2506.11244v1
- Date: Thu, 12 Jun 2025 19:30:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.560171
- Title: Iterative Multilingual Spectral Attribute Erasure
- Title(参考訳): 反復多言語スペクトル属性消去
- Authors: Shun Shao, Yftah Ziser, Zheng Zhao, Yifu Qiu, Shay B. Cohen, Anna Korhonen,
- Abstract要約: 反復多言語スペクトル属性消去(IMSAE)
複数言語にまたがる共同バイアス部分空間を同定・緩和するIterative Multilingual Spectral Attribute Erasure (IMSAE)を提案する。
- 参考スコア(独自算出の注目度): 36.73678940946656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilingual representations embed words with similar meanings to share a common semantic space across languages, creating opportunities to transfer debiasing effects between languages. However, existing methods for debiasing are unable to exploit this opportunity because they operate on individual languages. We present Iterative Multilingual Spectral Attribute Erasure (IMSAE), which identifies and mitigates joint bias subspaces across multiple languages through iterative SVD-based truncation. Evaluating IMSAE across eight languages and five demographic dimensions, we demonstrate its effectiveness in both standard and zero-shot settings, where target language data is unavailable, but linguistically similar languages can be used for debiasing. Our comprehensive experiments across diverse language models (BERT, LLaMA, Mistral) show that IMSAE outperforms traditional monolingual and cross-lingual approaches while maintaining model utility.
- Abstract(参考訳): 多言語表現は、言語間で共通の意味空間を共有するために、同様の意味を持つ単語を埋め込む。
しかし、既存のデバイアス法では、個々の言語で動作するため、この機会を活用できない。
本稿では,複数言語間の共同バイアス部分空間を反復的SVDに基づくトランケーションにより同定し緩和する,反復的多言語スペクトル属性消去(IMSAE)を提案する。
対象言語データが利用できないが,言語的に類似した言語を嫌悪するために使用することができる,標準設定とゼロショット設定の両方において,IMSAEの有効性を実証する。
多様な言語モデル(BERT, LLaMA, Mistral)にまたがる包括的実験により, IMSAEはモデルユーティリティを維持しながら従来のモノリンガルおよびクロスランガルアプローチより優れていることが示された。
関連論文リスト
- High-Dimensional Interlingual Representations of Large Language Models [65.77317753001954]
大規模言語モデル(LLM)は、多言語データセットに基づいて訓練され、言語間構造の形成を示唆する。
資源レベル, 類型, 地理的地域によって異なる31の多様な言語を探索する。
多言語 LLM は非一貫性な言語間アライメントを示す。
論文 参考訳(メタデータ) (2025-03-14T10:39:27Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間の対応する概念、すなわち言語を横断的に関連付けることができるだろうか?
本研究は,言語横断的タスクにおける最先端LLMの評価である。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Selected Languages are All You Need for Cross-lingual Truthfulness Transfer [38.3269908062146]
Fact-aware Multilingual Selective Synergy (FaMSS) と呼ばれる言語間真性伝達の実践的手法を提案する。
FaMSSは、言語バイアスと転送コントリビューションによって全てのテスト対象言語の最適なサブセットを選択し、その後、言語間真性伝達のための翻訳命令チューニングを使用することができる。
論文 参考訳(メタデータ) (2024-06-20T15:59:07Z) - Mitigating Language-Level Performance Disparity in mPLMs via Teacher Language Selection and Cross-lingual Self-Distillation [25.850573463743352]
大規模多言語事前訓練言語モデル(mPLMs)は、言語横断タスクにおいて優れた性能を発揮する。
しかし、mPLM内では異なる言語にまたがって大きな性能格差が存在する。
我々は ALSACE を導入し,優れた言語から学んだ知識を活用して,mPLM の低性能言語を誘導する。
論文 参考訳(メタデータ) (2024-04-12T14:19:16Z) - Discovering Low-rank Subspaces for Language-agnostic Multilingual
Representations [38.56175462620892]
ML-LM(ML-LM)は,ゼロショット言語間移動の顕著な能力を示す。
多言語埋め込み空間から言語固有の要素を投影する新しい視点を提案する。
本手法を適用すれば,ML-LMよりも一貫した改善が期待できることを示す。
論文 参考訳(メタデータ) (2024-01-11T09:54:11Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。