論文の概要: Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023)
- arxiv url: http://arxiv.org/abs/2308.03228v1
- Date: Sun, 6 Aug 2023 23:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:52:17.250891
- Title: Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023)
- Title(参考訳): 21世紀に言語学が繁栄する理由--ピアンタドシへの返答(2023年)
- Authors: Jordan Kodner, Sarah Payne, Jeffrey Heinz
- Abstract要約: 我々は、「現代言語モデルはチョムスキーの言語へのアプローチに反する」というピアンタドシの主張を批判的に評価する。
大きな言語モデルの性能と実用性にもかかわらず、人間は桁違いに少ないデータに晒された後、言語に対する能力を達成する。
本稿は,21世紀以降の科学分野としての生成言語学が不可欠であると結論付けている。
- 参考スコア(独自算出の注目度): 5.2424255020469595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a critical assessment of Piantadosi's (2023) claim that "Modern
language models refute Chomsky's approach to language," focusing on four main
points. First, despite the impressive performance and utility of large language
models (LLMs), humans achieve their capacity for language after exposure to
several orders of magnitude less data. The fact that young children become
competent, fluent speakers of their native languages with relatively little
exposure to them is the central mystery of language learning to which Chomsky
initially drew attention, and LLMs currently show little promise of solving
this mystery. Second, what can the artificial reveal about the natural? Put
simply, the implications of LLMs for our understanding of the cognitive
structures and mechanisms underlying language and its acquisition are like the
implications of airplanes for understanding how birds fly. Third, LLMs cannot
constitute scientific theories of language for several reasons, not least of
which is that scientific theories must provide interpretable explanations, not
just predictions. This leads to our final point: to even determine whether the
linguistic and cognitive capabilities of LLMs rival those of humans requires
explicating what humans' capacities actually are. In other words, it requires a
separate theory of language and cognition; generative linguistics provides
precisely such a theory. As such, we conclude that generative linguistics as a
scientific discipline will remain indispensable throughout the 21st century and
beyond.
- Abstract(参考訳): 我々は、ピアンタドシの2023年の主張を批判的に評価し、「現代言語モデルはチョムスキーの言語へのアプローチに反する」という4つの主要な点に焦点を当てた。
まず、大きな言語モデル(LLM)の性能と実用性にもかかわらず、人間は桁違いに少ないデータに曝露した後、言語に対する能力を達成する。
幼児が比較的ほとんど露出しないまま、母国語に精通した話し手になるという事実は、チョムスキーが最初に注目した言語学習の中心的な謎であり、LLMは今のところこの謎を解くという約束をほとんど示していない。
第二に、人工的に自然に何ができるのか?
簡単に言えば、llmが言語の基礎となる認知構造やメカニズムを理解する上での意義と、その獲得は、鳥の飛べ方を理解するための飛行機の意味のように思える。
第三に、llmはいくつかの理由から科学的な言語理論を構成することができないが、科学的理論は単なる予測ではなく解釈可能な説明を提供する必要がある。
LLMの言語能力と認知能力が人間に匹敵するかどうかを判断するためには、人間の能力が実際に何であるかを解明する必要がある。
言い換えれば、言語と認知の別の理論が必要であり、生成言語学はまさにそのような理論を提供する。
そのため,21世紀以降は,科学的分野としての生成言語学が不可欠であり続けると結論づけた。
関連論文リスト
- Language-Specific Neurons: The Key to Multilingual Capabilities in Large
Language Models [122.25217086389425]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Probing Structured Semantics Understanding and Generation of Language
Models via Question Answering [56.610044062739256]
本研究では,人間が構築した形式言語を用いて質問応答のタスクにおいて,大規模言語モデルが構造化意味論に対処する能力について検討する。
異なる大きさのモデルと異なる形式言語を用いた実験は、今日の最先端のLLMの論理形式に対する理解が全体的な人間レベルにアプローチできることを示している。
結果は、モデルが異なる形式言語にかなり敏感であることを示している。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Meaning and understanding in large language models [0.0]
人工知能の生成的大言語モデル(LLM)の最近の発展は、機械による言語理解に関する伝統的な哲学的仮定を改訂する必要があるという信念を導いた。
本稿では,機械語の性能を単なる統語的操作と見なす傾向と理解のシミュレーションを批判的に評価する。
論文 参考訳(メタデータ) (2023-10-26T14:06:14Z) - The Quo Vadis of the Relationship between Language and Large Language
Models [3.10770247120758]
LLM(Large Language Models)は、LLMを言語科学モデルとして採用することを奨励している。
透明性に欠ける科学的モデルの導入によって引き起こされる最も重要な理論的および経験的リスクを特定します。
現在の開発段階において、LLMは言語に関する説明をほとんど提供していないと結論付けている。
論文 参考訳(メタデータ) (2023-10-17T10:54:24Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Verbal behavior without syntactic structures: beyond Skinner and Chomsky [0.0]
言語がどんな人間の行動であるかを再発見しなければならない。
最近の心理学的、計算的、神経生物学的、そして行動の成型と構造に関する進化的な洞察は、我々を新しい、実行可能な言語の説明へと導くかもしれない。
論文 参考訳(メタデータ) (2023-03-11T00:01:21Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Dissociating language and thought in large language models [55.51583339260924]
大規模言語モデル(LLM)は、人間の言語を習得する上で、今までに最も近いモデルである。
言語規則とパターンの理解-および機能的言語能力-世界における言語の理解と利用-を区別してLLMを評価する。
論文 参考訳(メタデータ) (2023-01-16T22:41:19Z) - Self-move and Other-move: Quantum Categorical Foundations of Japanese [0.0]
本研究は,圏論に基づく英語の先行研究に基づいて,日本語の本来の図式表現に寄与する。
英語と日本語のドイツ語の違いは、現在の研究機関における英語の偏見に対処するために強調されている。
論文 参考訳(メタデータ) (2022-10-10T06:26:59Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。