論文の概要: Multilinguality as Sense Adaptation
- arxiv url: http://arxiv.org/abs/2601.10310v1
- Date: Thu, 15 Jan 2026 11:44:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.118571
- Title: Multilinguality as Sense Adaptation
- Title(参考訳): センス適応としての多言語性
- Authors: Jan Christian Blaise Cruz, David Ifeoluwa Adelani, Alham Fikri Aji,
- Abstract要約: SENSE-based Symmetric Interlingual Alignment (SENSIA)
SENse-based Symmetric Interlingual Alignment (SENSIA)について紹介する。
これは、ある言語から別の言語へのバックパック言語モデルへの適応であり、並列データに対する感覚レベルの混合とコンテキスト表現を明確に調整する。
- 参考スコア(独自算出の注目度): 24.548610248136352
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We approach multilinguality as sense adaptation: aligning latent meaning representations across languages rather than relying solely on shared parameters and scale. In this paper, we introduce SENse-based Symmetric Interlingual Alignment (SENSIA), which adapts a Backpack language model from one language to another by explicitly aligning sense-level mixtures and contextual representations on parallel data, while jointly training a target-language language modeling loss to preserve fluency. Across benchmarks on four typologically diverse languages, SENSIA generally outperforms comparable multilingual alignment methods and achieves competitive accuracy against monolingual from-scratch baselines while using 2-4x less target-language data. Analyses of learned sense geometry indicate that local sense topology and global structure relative to English are largely preserved, and ablations show that the method is robust in terms of design and scale.
- Abstract(参考訳): 我々は,共用パラメータや尺度にのみ依存するのではなく,言語間の潜在的意味表現の整合化という,感覚適応としての多言語性にアプローチする。
本稿では,SENseをベースとしたSENSIA(Symmetric Interlingual Alignment)について紹介する。このSENSIAは,知覚レベルの混合とコンテキスト表現を並列データ上に明示的に整列させることによって,言語モデルをある言語から別の言語に適応させる。
SENSIAは4つのタイプ的多言語をベンチマークし、一般的に同等の多言語アライメント法を上回り、2-4倍のターゲット言語データを使用しながらモノリンガルのオフスクラッチベースラインに対する競争精度を達成している。
学習感覚幾何学の分析は、英語に対する局所感覚トポロジーとグローバル構造が大半が保存されていることを示している。
関連論文リスト
- High-Dimensional Interlingual Representations of Large Language Models [65.77317753001954]
大規模言語モデル(LLM)は、多言語データセットに基づいて訓練され、言語間構造の形成を示唆する。
資源レベル, 類型, 地理的地域によって異なる31の多様な言語を探索する。
多言語 LLM は非一貫性な言語間アライメントを示す。
論文 参考訳(メタデータ) (2025-03-14T10:39:27Z) - A Massively Multilingual Analysis of Cross-linguality in Shared
Embedding Space [61.18554842370824]
言語間モデルでは、多くの異なる言語に対する表現は同じ空間に存在している。
我々は,bitext検索性能の形式で,言語間アライメントのタスクベース尺度を計算した。
我々はこれらのアライメント指標の潜在的な予測因子として言語的、準言語的、および訓練関連の特徴について検討する。
論文 参考訳(メタデータ) (2021-09-13T21:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。