論文の概要: Tracing Multilingual Representations in LLMs with Cross-Layer Transcoders
- arxiv url: http://arxiv.org/abs/2511.10840v1
- Date: Thu, 13 Nov 2025 22:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.352625
- Title: Tracing Multilingual Representations in LLMs with Cross-Layer Transcoders
- Title(参考訳): クロス層トランスコーダを用いたLLMにおける多言語表現の追跡
- Authors: Abir Harrasse, Florent Draye, Zhijing Jin, Bernhard Schölkopf,
- Abstract要約: 大規模言語モデル(LLM)は多くの言語を処理できるが、どのようにして内部的にこの多様性を表現しているのかは不明だ。
言語固有のデコーディングと多言語表現を共有できるのでしょうか?
層間トランスコーダ(CLT)と属性グラフを用いて内部メカニズムを解析する。
- 参考スコア(独自算出の注目度): 51.380449540006985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual Large Language Models (LLMs) can process many languages, yet how they internally represent this diversity remains unclear. Do they form shared multilingual representations with language-specific decoding, and if so, why does performance still favor the dominant training language? To address this, we train a series of LLMs on different mixtures of multilingual data and analyze their internal mechanisms using cross-layer transcoders (CLT) and attribution graphs. Our results provide strong evidence for pivot language representations: the model employs nearly identical representations across languages, while language-specific decoding emerges in later layers. Attribution analyses reveal that decoding relies in part on a small set of high-frequency language features in the final layers, which linearly read out language identity from the first layers in the model. By intervening on these features, we can suppress one language and substitute another in the model's outputs. Finally, we study how the dominant training language influences these mechanisms across attribution graphs and decoding pathways. We argue that understanding this pivot-language mechanism is crucial for improving multilingual alignment in LLMs.
- Abstract(参考訳): 多言語大言語モデル (LLM) は多くの言語を処理できるが、その多様性を内部的にどう表現するかは不明だ。
言語固有のデコーディングと多言語表現を共有できるのでしょうか?
そこで我々は,多言語データの異なる混合物上で一連のLCMを訓練し,その内部メカニズムを層間トランスコーダ(CLT)と属性グラフを用いて解析する。
このモデルは言語間でほぼ同一の表現を採用しており、言語固有のデコーディングは後続の層に現れる。
属性分析により、デコーディングは最終層における少数の高周波言語機能に依存しており、モデルの最初の層から言語アイデンティティを線形に読み取る。
これらの特徴に介入することで、ある言語を抑圧し、モデルの出力で別の言語を置き換えることができる。
最後に,学習言語が帰属グラフや復号経路にまたがるこれらのメカニズムにどのように影響するかを検討する。
我々は、LLMにおける多言語アライメントを改善するために、このピボット言語メカニズムを理解することが重要であると論じている。
関連論文リスト
- Sparse Autoencoders Can Capture Language-Specific Concepts Across Diverse Languages [11.19692440351977]
既存の研究はしばしば個々のニューロンに焦点を当てているが、その多意味性は言語固有の単位を分離することが困難である。
本稿では,機能アクティベーション確率に基づくSAE-LAPEを用いて,フィードフォワードネットワーク内の言語固有の特徴を識別する手法を提案する。
これらの機能は、モデルの多言語パフォーマンスと言語出力に影響を与え、fastTextに匹敵するパフォーマンスを持つ言語識別に使用できる。
論文 参考訳(メタデータ) (2025-07-15T12:00:30Z) - Large Language Models Share Representations of Latent Grammatical Concepts Across Typologically Diverse Languages [15.203789021094982]
大規模言語モデル(LLM)では、複数の言語がどのように学習され、エンコードされているか?
Llama-3-8BとAya-23-8Bでスパースオートエンコーダを訓練し、抽象文法の概念が多くの言語で共有される特徴方向に符号化されることを実証する。
論文 参考訳(メタデータ) (2025-01-10T21:18:21Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間の対応する概念、すなわち言語を横断的に関連付けることができるだろうか?
本研究は,言語横断的タスクにおける最先端LLMの評価である。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - How do Large Language Models Handle Multilingualism? [81.15060972112563]
本研究では,大規模言語モデル(LLM)が多言語モデルをどのように扱うかを検討する。
LLMはまずクエリを理解し、タスク解決のために多言語入力を英語に変換する。
中間層では、英語を思考に用い、自己意識とフィードフォワード構造を持つ多言語知識を取り入れている。
論文 参考訳(メタデータ) (2024-02-29T02:55:26Z) - Breaking Down Multilingual Machine Translation [74.24795388967907]
マルチ言語学習は一般にエンコーダにとって有益であるが,ローソース言語(LRL)ではデコーダにのみ有益であることを示す。
LRLの多言語モデルと一対多モデルは、Aharoniらによって報告された最良の結果よりも優れています。
論文 参考訳(メタデータ) (2021-10-15T14:57:12Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。