論文の概要: Language Models as Artificial Learners: Investigating Crosslinguistic Influence
- arxiv url: http://arxiv.org/abs/2601.21587v1
- Date: Thu, 29 Jan 2026 11:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.781254
- Title: Language Models as Artificial Learners: Investigating Crosslinguistic Influence
- Title(参考訳): 人工学習者としての言語モデル:クロス言語的影響を探る
- Authors: Abderrahmane Issam, Yusuf Can Semerci, Jan Scholtes, Gerasimos Spanakis,
- Abstract要約: 我々は,L1言語の優位性とL2言語の習熟度の変化の効果について検討した。
言語間プライミングを用いてL1構造の活性化がL2処理に与える影響を分析する。
- 参考スコア(独自算出の注目度): 11.168086425477467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the centrality of crosslinguistic influence (CLI) to bilingualism research, human studies often yield conflicting results due to inherent experimental variance. We address these inconsistencies by using language models (LMs) as controlled statistical learners to systematically simulate CLI and isolate its underlying drivers. Specifically, we study the effect of varying the L1 language dominance and the L2 language proficiency, which we manipulate by controlling the L2 age of exposure -- defined as the training step at which the L2 is introduced. Furthermore, we investigate the impact of pretraining on L1 languages with varying syntactic distance from the L2. Using cross-linguistic priming, we analyze how activating L1 structures impacts L2 processing. Our results align with evidence from psycholinguistic studies, confirming that language dominance and proficiency are strong predictors of CLI. We further find that while priming of grammatical structures is bidirectional, the priming of ungrammatical structures is sensitive to language dominance. Finally, we provide mechanistic evidence of CLI in LMs, demonstrating that the L1 is co-activated during L2 processing and directly influences the neural circuitry recruited for the L2. More broadly, our work demonstrates that LMs can serve as a computational framework to inform theories of human CLI.
- Abstract(参考訳): バイリンガル主義研究への言語間影響(CLI)の中枢性にもかかわらず、人間の研究は本質的に実験的に異なるため、しばしば矛盾する結果をもたらす。
制御された統計的学習者として言語モデル(LM)を用いてCLIを体系的にシミュレートし、その基盤となるドライバを分離することで、これらの矛盾に対処する。
具体的には、L2が導入されたトレーニングステップとして定義されたL2年齢を制御して操作するL1言語優位性とL2言語習熟度の変化の効果について検討する。
さらに,L2との構文的距離の異なるL1言語に対する事前学習の影響について検討した。
言語間プライミングを用いてL1構造の活性化がL2処理に与える影響を分析する。
本研究は, 言語優位性と能力がCLIの強い予測因子であることを確認し, 心理言語学的な研究から得られた証拠と一致した。
さらに、文法構造のプライミングは双方向であるが、非文法構造のプライミングは言語の優位性に敏感であることがわかった。
最後に、L1がL2処理中に共活性化され、L2に採用される神経回路に直接影響を与えることを示す、LMにおけるCLIの機械的証拠を提供する。
より広範に、我々の研究は、LMが人間のCLIの理論を伝えるための計算フレームワークとして機能することを実証している。
関連論文リスト
- Code-Switching In-Context Learning for Cross-Lingual Transfer of Large Language Models [64.54005959758733]
我々は,コードスイッチング・イン・コンテキスト・ラーニング(CSICL)を,推論中の翻訳障壁を克服するための原則的かつ堅牢なアプローチとして導入する。
4つのLLM、6つのデータセット、10の言語にわたる広範な実験を行い、知識集約型ドメインと推論指向ドメインの両方にまたがる。
その結果、CSICLはX-ICLベースラインを一貫して上回り、ターゲット言語と見当たらない言語の両方で3.1%pと1.9%pを達成した。
論文 参考訳(メタデータ) (2025-10-07T08:35:42Z) - Do Self-Supervised Speech Models Exhibit the Critical Period Effects in Language Acquisition? [13.643286736802414]
言語習得における臨界周期(CP)の影響は、自己教師型音声モデル(S3Ms)で観察される
CP効果は、L2の露光が遅れた第2言語(L2)の取得が困難であること、L1の露光が遅れた第1言語(L1)の維持が遅れたことを指している。
児童指向音声におけるL2訓練のオンセットとL1訓練のオフセットの異なるS3Mを訓練し,その識別性能を評価した。
S3Msは音韻学的にCP効果の明確な証拠を示さない。
論文 参考訳(メタデータ) (2025-08-28T20:56:16Z) - Can LLMs Simulate L2-English Dialogue? An Information-Theoretic Analysis of L1-Dependent Biases [22.048949559200935]
本研究では,L2学習者における非ネイティブな英語使用をシミュレートする大規模言語モデルの評価を行った。
対話型インタビューでは、L2の英語学習者に7つの言語にまたがる特定のL1を模倣するよう促す。
本分析では,情報理論および分布密度測定を用いて,参照語使用や回避行動などのL1駆動型言語バイアスについて検討した。
論文 参考訳(メタデータ) (2025-02-20T12:34:46Z) - Investigating Critical Period Effects in Language Acquisition through Neural Language Models [70.6367059367609]
第二言語 (L2) の習得は幼少期以降難しくなる。
この期間以降、第1言語(L1)への露出を緩和することは、通常、L1の習熟度を著しく低下させることはない。
これらのCP効果が自然に決定された脳の成熟によるものなのか、または経験によって自然に誘発される神経接続の安定化であるのかは不明である。
論文 参考訳(メタデータ) (2024-07-27T19:17:10Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Self-Augmented In-Context Learning for Unsupervised Word Translation [23.495503962839337]
大規模言語モデル (LLMs) は、強力な単語翻訳やバイリンガル語彙誘導(BLI)機能を示す。
教師なしBLIのための自己拡張型インコンテキスト学習(SAIL)を提案する。
提案手法は,2つの確立したBLIベンチマーク上でのLDMのゼロショットプロンプトよりも大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-02-15T15:43:05Z) - Second Language Acquisition of Neural Language Models [17.356128991925576]
この研究は、第2言語(L2)によるニューラル言語モデル(LM)の獲得に光を当てている。
我々は,人間のL2獲得に類似したシナリオでバイリンガルLMを訓練し,言語学的視点から言語間移動を解析した。
論文 参考訳(メタデータ) (2023-06-05T14:32:41Z) - SLABERT Talk Pretty One Day: Modeling Second Language Acquisition with
BERT [0.0]
言語間移動は、話者の母語の言語構造が外国語の獲得に与える影響である。
我々はNLP文献が陰性移行現象に十分な注意を払っていないことを発見した。
そこで本研究では,TransformerベースのSLAモデルを用いたさらなる研究を提唱する。
論文 参考訳(メタデータ) (2023-05-31T06:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。