論文の概要: Rethinking Cross-lingual Alignment: Balancing Transfer and Cultural Erasure in Multilingual LLMs
- arxiv url: http://arxiv.org/abs/2510.26024v1
- Date: Wed, 29 Oct 2025 23:37:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.605314
- Title: Rethinking Cross-lingual Alignment: Balancing Transfer and Cultural Erasure in Multilingual LLMs
- Title(参考訳): 言語間アライメントの再考:多言語LLMにおけるバランス・トランスファーと文化的消去
- Authors: HyoJung Han, Sweta Agrawal, Eleftheria Briakou,
- Abstract要約: 言語間のアライメントは多言語表現の整合を目標とし、大規模言語モデルが言語間の知識をシームレスに伝達することを可能にする。
直観的ではあるが、この表現的収束の追求は必然的に「文化的消去」を引き起こす可能性があると仮定する。
この2つの目的を解消する新しい推論時間法である手術ステアリングを提案する。
- 参考スコア(独自算出の注目度): 13.444040667645979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual alignment (CLA) aims to align multilingual representations, enabling Large Language Models (LLMs) to seamlessly transfer knowledge across languages. While intuitive, we hypothesize, this pursuit of representational convergence can inadvertently cause "cultural erasure", the functional loss of providing culturally-situated responses that should diverge based on the query language. In this work, we systematically analyze this trade-off by introducing a holistic evaluation framework, the transfer-localization plane, which quantifies both desirable knowledge transfer and undesirable cultural erasure. Using this framework, we re-evaluate recent CLA approaches and find that they consistently improve factual transfer at the direct cost of cultural localization across all six languages studied. Our investigation into the internal representations of these models reveals a key insight: universal factual transfer and culturally-specific knowledge are optimally steerable at different model layers. Based on this finding, we propose Surgical Steering, a novel inference-time method that disentangles these two objectives. By applying targeted activation steering to distinct layers, our approach achieves a better balance between the two competing dimensions, effectively overcoming the limitations of current alignment techniques.
- Abstract(参考訳): 言語間アライメント(CLA)は多言語表現の整合化を目的としており、LLM(Large Language Models)が言語間の知識をシームレスに伝達することを可能にする。
直感的ではあるが、この表現収束の追求は必然的に「文化的消去」を引き起こす可能性がある。
本研究では,このトレードオフを,所望の知識伝達と望ましくない文化的消去の両方を定量化する全体的評価枠組み,伝達-局所化平面を導入することで,体系的に分析する。
このフレームワークを用いて、最近のCLAアプローチを再評価し、研究対象の6言語すべてにまたがる文化的ローカライゼーションの直接的なコストで、事実移動を継続的に改善することを発見した。
普遍的な事実伝達と文化的に特異的な知識は、異なるモデル層で最適に制御可能である。
そこで本研究では,この2つの目的を解消する新しい推論時間法である,手術時ステアリングを提案する。
異なる層に目標とするアクティベーションステアリングを適用することで、2つの競合する次元のバランスを良くし、現在のアライメント手法の限界を効果的に克服する。
関連論文リスト
- On the Entity-Level Alignment in Crosslingual Consistency [62.33186691736433]
SubSubとSubInjは、主題の英語翻訳を言語間のプロンプトに統合し、実際のリコール精度と一貫性を大きく向上させた。
これらの介入はモデルの内部ピボット言語処理を通じて概念空間における実体表現のアライメントを強化する。
論文 参考訳(メタデータ) (2025-10-11T16:26:50Z) - MMA-ASIA: A Multilingual and Multimodal Alignment Framework for Culturally-Grounded Evaluation [91.22008265721952]
MMA-ASIAは、アジア8か国と10か国を対象とする人為的、多言語的、マルチモーダルなベンチマークに重点を置いている。
これは、テキスト、画像(視覚的質問応答)、音声の3つのモードにまたがる入力レベルで整列された最初のデータセットである。
i) 国間の文化的認識格差、(ii) 言語間の整合性、(iii) 言語間の整合性、(iv) 文化知識の一般化、(v) 基礎的妥当性を評価する5次元評価プロトコルを提案する。
論文 参考訳(メタデータ) (2025-10-07T14:12:12Z) - Cross-Lingual Transfer of Cultural Knowledge: An Asymmetric Phenomenon [31.04530022789729]
大規模言語モデル(LLM)の言語適応における言語間の文化的知識伝達について検討する。
低リソース言語は主に知識を制限された逆流を持つ英語に伝達するのに対し、英語と他の高リソース言語間の双方向の文化的伝達を観察する。
この非対称な現象を説明するために、我々は、事前学習データ転送においてより頻繁に現れる文化知識という周波数ベースの仮説を提案する。
論文 参考訳(メタデータ) (2025-06-02T13:45:09Z) - Disentangling Language and Culture for Evaluating Multilingual Large Language Models [48.06219053598005]
本稿では,LLMの多言語機能を包括的に評価するデュアル評価フレームワークを提案する。
言語媒体と文化的文脈の次元に沿って評価を分解することにより、LLMが言語間を横断的に処理する能力の微妙な分析を可能にする。
論文 参考訳(メタデータ) (2025-05-30T14:25:45Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - High-Dimensional Interlingual Representations of Large Language Models [65.77317753001954]
大規模言語モデル(LLM)は、多言語データセットに基づいて訓練され、言語間構造の形成を示唆する。
資源レベル, 類型, 地理的地域によって異なる31の多様な言語を探索する。
多言語 LLM は非一貫性な言語間アライメントを示す。
論文 参考訳(メタデータ) (2025-03-14T10:39:27Z) - Exploring Cross-lingual Latent Transplantation: Mutual Opportunities and Open Challenges [48.96952594416528]
現在の大規模言語モデル(LLM)は多言語能力と文化的適応性に不均衡を示すことが多い。
XTransplantフレームワークは、言語間で潜在的なアクティベーションを移植することで、英語と非英語のリソースの相補的な長所を利用することができる。
論文 参考訳(メタデータ) (2024-12-17T09:05:30Z) - Are Structural Concepts Universal in Transformer Language Models?
Towards Interpretable Cross-Lingual Generalization [27.368684663279463]
本稿では,言語間の概念対応を明確に整合させ,言語間の一般化を促進する可能性について検討する。
言語構文の側面をテストベッドとして,43言語を解析した結果,高い整合性を示した。
本稿では,メタラーニングに基づく概念空間の整合学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T14:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。