論文の概要: Large language models are not about language
- arxiv url: http://arxiv.org/abs/2512.13441v1
- Date: Mon, 15 Dec 2025 15:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.727732
- Title: Large language models are not about language
- Title(参考訳): 大規模言語モデルは言語ではない
- Authors: Johan J. Bolhuis, Andrea Moro, Stephen Crain, Sandiway Fong,
- Abstract要約: 人間の言語は、階層的な思考構造を生成する心内計算システムによって支えられている。
言語システムは、最小限の外部入力で成長し、実際の言語と不可能な言語を簡単に区別することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models are useless for linguistics, as they are probabilistic models that require a vast amount of data to analyse externalized strings of words. In contrast, human language is underpinned by a mind-internal computational system that recursively generates hierarchical thought structures. The language system grows with minimal external input and can readily distinguish between real language and impossible languages.
- Abstract(参考訳): 大きな言語モデルは言語学では役に立たないが、外付け文字列を分析するのに大量のデータを必要とする確率論的モデルである。
対照的に、人間の言語は、階層的な思考構造を再帰的に生成する心内計算システムによって支えられている。
言語システムは、最小限の外部入力で成長し、実際の言語と不可能な言語を簡単に区別することができる。
関連論文リスト
- Language models as tools for investigating the distinction between possible and impossible natural languages [30.440694754088934]
言語モデル(LM)は,可能な自然言語と不可能な自然言語の区別を探索するための調査ツールとして,強い可能性を秘めている。
我々は、LMアーキテクチャを反復的に洗練し、可能言語と不可能言語を識別する段階的な研究プログラムの概要を述べる。
論文 参考訳(メタデータ) (2025-12-10T07:37:43Z) - Infusing Prompts with Syntax and Semantics [0.0]
本研究では,多種多様な構文情報や意味情報を大規模言語モデルに直接注入する効果を解析する。
言語分析によって言語モデルが大幅に向上し、これまでの最高のシステムを超えている点が示される。
論文 参考訳(メタデータ) (2024-12-08T23:49:38Z) - The Role of Language Imbalance in Cross-lingual Generalisation: Insights from Cloned Language Experiments [57.273662221547056]
本研究では,言語間一般化の非直感的な新規ドライバである言語不均衡について検討する。
学習中に支配的な言語が存在することが、あまり頻度の低い言語の性能を高めることを観察する。
分析を実言語に拡張するにつれ、頻繁な言語は依然として恩恵を受けていますが、言語不均衡が言語間の一般化を引き起こすかどうかは決定的ではありません。
論文 参考訳(メタデータ) (2024-04-11T17:58:05Z) - Counterfactually Probing Language Identity in Multilingual Models [15.260518230218414]
多言語モデルの内部構造を探索するために, 対実的探索法AlterRepを用いる。
言語 X のテンプレートを考えると、言語 Y が言語 Y の単語の確率を体系的に増加させることが分かる。
論文 参考訳(メタデータ) (2023-10-29T01:21:36Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Detecting Languages Unintelligible to Multilingual Models through Local
Structure Probes [15.870989191524094]
我々は、言語間モデルでよく理解されていない言語を検出するために、未理解のテキストのみを必要とする一般的なアプローチを開発する。
我々のアプローチは、もしモデルの理解が言語のテキストに対する摂動に無関心であるなら、その言語について限られた理解を持つ可能性が高いという仮説から導かれる。
論文 参考訳(メタデータ) (2022-11-09T16:45:16Z) - Language Models are not Models of Language [0.0]
トランスファーラーニングにより、言語モデリングタスクでトレーニングされた大規模なディープラーニングニューラルネットワークにより、パフォーマンスが大幅に向上した。
深層学習モデルは言語の理論的モデルではないので、言語モデルという用語は誤解を招く。
論文 参考訳(メタデータ) (2021-12-13T22:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。