論文の概要: Quantifier Scope Interpretation in Language Learners and LLMs
- arxiv url: http://arxiv.org/abs/2509.10860v1
- Date: Sat, 13 Sep 2025 15:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.820621
- Title: Quantifier Scope Interpretation in Language Learners and LLMs
- Title(参考訳): 言語学習者とLLMにおける量的スコープ解釈
- Authors: Shaohua Fang, Yue Li, Yan Cong,
- Abstract要約: 本研究では,大言語モデルが英語と中国語の量化対象範囲の解釈をどのように扱うかを検討する。
その結果、ほとんどのLLMは表面スコープの解釈を好んでおり、人間の傾向と一致していることが明らかとなった。
HSスコアは、LLMによる人間の行動の近似の多様性を強調しているが、人間と協調する全体的なポテンシャルは注目に値する。
- 参考スコア(独自算出の注目度): 3.1478333653257367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sentences with multiple quantifiers often lead to interpretive ambiguities, which can vary across languages. This study adopts a cross-linguistic approach to examine how large language models (LLMs) handle quantifier scope interpretation in English and Chinese, using probabilities to assess interpretive likelihood. Human similarity (HS) scores were used to quantify the extent to which LLMs emulate human performance across language groups. Results reveal that most LLMs prefer the surface scope interpretations, aligning with human tendencies, while only some differentiate between English and Chinese in the inverse scope preferences, reflecting human-similar patterns. HS scores highlight variability in LLMs' approximation of human behavior, but their overall potential to align with humans is notable. Differences in model architecture, scale, and particularly models' pre-training data language background, significantly influence how closely LLMs approximate human quantifier scope interpretations.
- Abstract(参考訳): 複数の量化子を持つ文はしばしば解釈の曖昧さをもたらし、言語によって異なる。
本研究では,大言語モデル(LLM)が英語と中国語の量化対象範囲の解釈をどのように処理するかを,確率を用いて解釈可能性を評価するための言語間アプローチを採用する。
人間類似度(HS)スコアは、LLMが言語グループ間での人間のパフォーマンスをエミュレートする程度を定量化するために用いられた。
その結果, LLM は表層領域の解釈を好み, 人間の傾向と一致しているのに対し, 逆範囲の選好では英語と中国語を区別し, 人間の類似パターンを反映していることがわかった。
HSスコアは、LLMによる人間の行動の近似の多様性を強調しているが、人間と協調する全体的なポテンシャルは注目に値する。
モデルアーキテクチャ、スケール、特にモデルの事前学習データ言語背景の違いは、LLMが人間の量子化器の範囲の解釈にどの程度近いかに大きな影響を及ぼす。
関連論文リスト
- Can LLMs Simulate Human Behavioral Variability? A Case Study in the Phonemic Fluency Task [0.0]
大きな言語モデル(LLM)は、認知タスクにおける人間の参加者の代用として、ますます研究されている。
本研究では,LLMが音素流速タスクの個人差を近似できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-22T03:08:27Z) - When Less Language is More: Language-Reasoning Disentanglement Makes LLMs Better Multilingual Reasoners [111.50503126693444]
言語固有のアブレーションは多言語推論性能を継続的に向上させることを示す。
トレーニング後のアブレーションと比較して、トレーニング不要のアブレーションは、計算オーバーヘッドを最小限に抑えながら、同等または優れた結果が得られる。
論文 参考訳(メタデータ) (2025-05-21T08:35:05Z) - Exploring the Multilingual NLG Evaluation Abilities of LLM-Based Evaluators [38.681443695708786]
本研究は,近年の10個のLLMの多言語評価性能を包括的に分析する。
参照応答をプロンプトから除外すると、様々な言語のパフォーマンスが向上することがわかった。
LLMに基づく評価器の多くは、低リソース言語よりも、高リソース言語における人間の判断と高い相関関係を示す。
論文 参考訳(メタデータ) (2025-03-06T12:04:29Z) - Multilingual Relative Clause Attachment Ambiguity Resolution in Large Language Models [2.3749120526936465]
大型言語モデル (LLM) は相対節 (RC) のアタッチメントの曖昧さを解消する。
我々はLLMが言語の複雑さの中で人間的な解釈を達成できるかどうかを評価する。
我々は、英語、スペイン語、フランス語、ドイツ語、日本語、韓国語でモデルを評価する。
論文 参考訳(メタデータ) (2025-03-04T19:56:56Z) - HLB: Benchmarking LLMs' Humanlikeness in Language Use [2.438748974410787]
20大言語モデル(LLM)を評価する総合的人間類似度ベンチマーク(HLB)を提案する。
実験では2000人以上の被験者から回答を収集し,LSMの成果と比較した。
以上の結果から,LLMが様々な言語レベルにおいてヒトの反応をいかにうまく再現するかの微妙な相違が明らかとなった。
論文 参考訳(メタデータ) (2024-09-24T09:02:28Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - Language Ranker: A Metric for Quantifying LLM Performance Across High and Low-Resource Languages [48.40607157158246]
大規模言語モデル(LLM)は、英語、ドイツ語、フランス語のような高リソース言語で、低リソース言語の能力は依然として不十分である。
内部表現を用いたLLM性能に基づいて,言語をベンチマークし,ランク付けするための固有測度であるLanguage Rankerを提案する。
分析の結果,高リソース言語は英語との類似度が高く,性能が優れ,低リソース言語は類似度が低いことがわかった。
論文 参考訳(メタデータ) (2024-04-17T16:53:16Z) - High-Dimension Human Value Representation in Large Language Models [60.33033114185092]
我々は,LLMにおける記号的人間の値分布の高次元神経表現であるUniVaRを提案する。
これは連続的かつスケーラブルな表現であり、8LLMの値関連出力から自己教師される。
LLMが25の言語や文化で異なる価値を優先し、人間の価値観と言語モデリングの間の複雑な相互作用に光を当てる方法について検討する。
論文 参考訳(メタデータ) (2024-04-11T16:39:00Z) - Probing Large Language Models from A Human Behavioral Perspective [24.109080140701188]
大規模言語モデル(LLM)は、現代のNLPにおいて支配的な基礎モデルとして登場した。
フィードフォワードネットワーク (FFN) やマルチヘッド・セルフアテンション (MHSA) などの予測プロセスや内部メカニズムの理解はいまだに未解明のままである。
論文 参考訳(メタデータ) (2023-10-08T16:16:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。