論文の概要: What Can String Probability Tell Us About Grammaticality?
- arxiv url: http://arxiv.org/abs/2510.16227v1
- Date: Fri, 17 Oct 2025 21:36:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.906638
- Title: What Can String Probability Tell Us About Grammaticality?
- Title(参考訳): 文字列の確率は文法について何を教えてくれるか?
- Authors: Jennifer Hu, Ethan Gotlieb Wilcox, Siyuan Song, Kyle Mahowald, Roger P. Levy,
- Abstract要約: コーパスデータの生成過程に関する簡単な仮定に基づいて,文法,意味,文字列の確率の関係を理論的に解析する。
本フレームワークでは,280K文対を英語と中国語で実証的に評価する3つの予測を行う。
本分析は,LMの構造的知識を学習する確率を用いた理論的根拠を与えるとともに,LM文法評価における今後の研究の方向性を提案する。
- 参考スコア(独自算出の注目度): 11.216210921392637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What have language models (LMs) learned about grammar? This question remains hotly debated, with major ramifications for linguistic theory. However, since probability and grammaticality are distinct notions in linguistics, it is not obvious what string probabilities can reveal about an LM's underlying grammatical knowledge. We present a theoretical analysis of the relationship between grammar, meaning, and string probability, based on simple assumptions about the generative process of corpus data. Our framework makes three predictions, which we validate empirically using 280K sentence pairs in English and Chinese: (1) correlation between the probability of strings within minimal pairs, i.e., string pairs with minimal semantic differences; (2) correlation between models' and humans' deltas within minimal pairs; and (3) poor separation in probability space between unpaired grammatical and ungrammatical strings. Our analyses give theoretical grounding for using probability to learn about LMs' structural knowledge, and suggest directions for future work in LM grammatical evaluation.
- Abstract(参考訳): 言語モデル(LM)は文法について何を学んだか?
この問題は現在も熱い議論が続き、言語理論に大きな影響が及んでいる。
しかし、確率と文法性は言語学において異なる概念であるため、LMの基本的な文法的知識についてどのような文字列確率が明らかになるかは明らかではない。
コーパスデータの生成過程に関する簡単な仮定に基づいて,文法,意味,文字列の確率の関係を理論的に解析する。
本フレームワークでは,280K文対を英語と中国語で実証的に検証し,(1)最小対における文字列の確率の相関,(2)最小対におけるモデルと人間のデルタの相関,(3)未対の文法的文字列と非文法的文字列の確率空間の分離,という3つの予測を行った。
本分析は,LMの構造的知識を学習する確率を用いた理論的根拠を与えるとともに,LM文法評価における今後の研究の方向性を提案する。
関連論文リスト
- Language Models Fail to Introspect About Their Knowledge of Language [12.074939242230505]
大規模言語モデル (LLM) が内部状態を検査できるかどうかを検討する。
モデルがメタ言語的刺激に対する応答を、内部知識を忠実に反映しているかどうかを評価する。
メタ言語的プロンプトと確率比較は高いタスク精度をもたらすが、LLMが「自己アクセス」を特権化している証拠は見つからない。
論文 参考訳(メタデータ) (2025-03-10T16:33:14Z) - Can Language Models Learn Typologically Implausible Languages? [62.823015163987996]
人間の言語にまたがる文法的特徴は、人間の学習バイアスに起因する興味深い相関関係を示している。
言語モデル(LM)が言語普遍性におけるドメイン一般学習バイアスの役割をよりよく決定する方法について論じる。
本研究は,英語(頭初期)と日本語(頭最終)の超自然主義的だが反実的なバージョンを用いて,LMを試験する。
論文 参考訳(メタデータ) (2025-02-17T20:40:01Z) - What Languages are Easy to Language-Model? A Perspective from Learning Probabilistic Regular Languages [78.1866280652834]
大規模言語モデル (LM) は文字列上の分布である。
RNNとTransformer LMによる規則的LM(RLM)の学習性について検討する。
RNNとトランスフォーマーの双方において,RLMランクの複雑さは強く,学習可能性の有意な予測因子であることが判明した。
論文 参考訳(メタデータ) (2024-06-06T17:34:24Z) - Can You Learn Semantics Through Next-Word Prediction? The Case of Entailment [36.82878715850013]
Merrillらは、理論上、最適なLMによって予測される文共起確率は、構成文の詳細な関係を反映すべきであると主張している。
本稿では,その理論をニューラルネットワークから包含関係を復号化するために利用できるか検討する。
それらのテストに類似したテストは、自然文間の係り受け関係を復号することができるが、完全には成立しない。
論文 参考訳(メタデータ) (2024-02-21T17:36:07Z) - Learning of Structurally Unambiguous Probabilistic Grammars [7.347989843033034]
CMTAは確率文法に変換可能であることを示す。
学習したCMTAは、構造的に曖昧な確率論的文脈自由文法を学習するための完全なアルゴリズムに変換可能であることを示す。
論文 参考訳(メタデータ) (2022-03-17T17:01:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。