論文の概要: Differences in Typological Alignment in Language Models' Treatment of Differential Argument Marking
- arxiv url: http://arxiv.org/abs/2602.17653v1
- Date: Thu, 19 Feb 2026 18:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.414057
- Title: Differences in Typological Alignment in Language Models' Treatment of Differential Argument Marking
- Title(参考訳): 言語モデルにおける韻律的アライメントの相違
- Authors: Iskar Deng, Nathalia Xu, Shane Steinert-Threlkeld,
- Abstract要約: 微分引数マーキング(DAM)は、形態学的マーキングが意味的優位性に依存するセマンティックライセンシングシステムである。
我々は,異なるDAMシステムを実装した18のコーパス上でGPT-2モデルを訓練し,最小ペアを用いてそれらの一般化を評価する。
以上の結果から,DAMの2つのタイプ的次元の解離が明らかとなった。
- 参考スコア(独自算出の注目度): 1.9371675344367494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that language models (LMs) trained on synthetic corpora can exhibit typological preferences that resemble cross-linguistic regularities in human languages, particularly for syntactic phenomena such as word order. In this paper, we extend this paradigm to differential argument marking (DAM), a semantic licensing system in which morphological marking depends on semantic prominence. Using a controlled synthetic learning method, we train GPT-2 models on 18 corpora implementing distinct DAM systems and evaluate their generalization using minimal pairs. Our results reveal a dissociation between two typological dimensions of DAM. Models reliably exhibit human-like preferences for natural markedness direction, favoring systems in which overt marking targets semantically atypical arguments. In contrast, models do not reproduce the strong object preference in human languages, in which overt marking in DAM more often targets objects rather than subjects. These findings suggest that different typological tendencies may arise from distinct underlying sources.
- Abstract(参考訳): 近年の研究では、人工コーパスで訓練された言語モデル(LM)が、言語間の共通性、特に語順のような統語的現象に類似したタイプ的嗜好を示すことが示されている。
本稿では,このパラダイムを,形態的マーキングが意味的優位性に依存するセマンティックライセンシングシステムである差分引数マーキング(DAM)に拡張する。
制御された合成学習法を用いて、異なるDAMシステムを実装した18のコーパス上でGPT-2モデルを訓練し、最小ペアを用いてそれらの一般化を評価する。
以上の結果から,DAMの2つのタイプ的次元の解離が明らかとなった。
モデルは、自然のマークネス方向に対する人間的な嗜好を確実に示し、意味論的に非定型的な議論を目標とするシステムを好む。
対照的に、モデルは人間の言語では強い対象の好みを再現しない。
これらの結果から, 異なる型的傾向が, 異なる根源から生じる可能性が示唆された。
関連論文リスト
- Quantification and object perception in Multimodal Large Language Models deviate from human linguistic cognition [0.12314765641075438]
数量化は(Multimodal) Large Language Models (MLLM) にとって特に難しい言語現象であることが証明されている。
本稿では,(M)LLM文献においてこれまで未発見であった言語間共用人間の量子化の3つの重要な特徴について考察する。
論文 参考訳(メタデータ) (2025-11-11T11:30:21Z) - Can Language Models Learn Typologically Implausible Languages? [62.823015163987996]
人間の言語にまたがる文法的特徴は、人間の学習バイアスに起因する興味深い相関関係を示している。
言語モデル(LM)が言語普遍性におけるドメイン一般学習バイアスの役割をよりよく決定する方法について論じる。
本研究は,英語(頭初期)と日本語(頭最終)の超自然主義的だが反実的なバージョンを用いて,LMを試験する。
論文 参考訳(メタデータ) (2025-02-17T20:40:01Z) - Exploring Large Language Models for Detecting Mental Disorders [6.5144428714312035]
本稿では、抑うつや不安を検知するタスクにおける機械学習手法、エンコーダベースモデル、および大規模言語モデル(LLM)の有効性を比較した。
我々は、言語的特徴に基づくAutoMLモデル、BERTのようなエンコーダベースのトランスフォーマーのバリエーション、そして病理分類モデルとして最先端のLCMを試験した。
論文 参考訳(メタデータ) (2024-10-09T17:51:55Z) - The Scenario Refiner: Grounding subjects in images at the morphological
level [2.401993998791928]
視覚と言語(V&L)モデルがこのような特徴を形態学レベルで捉えているかどうかを問う。
我々は、V&Lモデルと人間の判断を比較し、モデルの予測が人間の判断と異なることを発見した。
論文 参考訳(メタデータ) (2023-09-20T12:23:06Z) - Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - Do Neural Language Models Show Preferences for Syntactic Formalisms? [14.388237635684737]
本研究では,言語モデルが捉えた構文構造のセマンランスが,表面シンタクティックあるいは深層構文解析の様式にどの程度依存しているかについて検討する。
13の異なる言語で訓練されたBERTおよびELMoモデルに対して,有向依存木抽出のためのプローブを適用した。
どちらのモデルも、SUDよりもUDを好むことが分かりました。
論文 参考訳(メタデータ) (2020-04-29T11:37:53Z) - Evaluating Transformer-Based Multilingual Text Classification [55.53547556060537]
我々は,NLPツールが構文的・形態学的に異なる言語で不平等に機能すると主張している。
実験研究を支援するために,単語順と形態的類似度指標を算出した。
論文 参考訳(メタデータ) (2020-04-29T03:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。