論文の概要: Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023)
- arxiv url: http://arxiv.org/abs/2308.03228v1
- Date: Sun, 6 Aug 2023 23:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:52:17.250891
- Title: Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023)
- Title(参考訳): 21世紀に言語学が繁栄する理由--ピアンタドシへの返答(2023年)
- Authors: Jordan Kodner, Sarah Payne, Jeffrey Heinz
- Abstract要約: 我々は、「現代言語モデルはチョムスキーの言語へのアプローチに反する」というピアンタドシの主張を批判的に評価する。
大きな言語モデルの性能と実用性にもかかわらず、人間は桁違いに少ないデータに晒された後、言語に対する能力を達成する。
本稿は,21世紀以降の科学分野としての生成言語学が不可欠であると結論付けている。
- 参考スコア(独自算出の注目度): 5.2424255020469595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a critical assessment of Piantadosi's (2023) claim that "Modern
language models refute Chomsky's approach to language," focusing on four main
points. First, despite the impressive performance and utility of large language
models (LLMs), humans achieve their capacity for language after exposure to
several orders of magnitude less data. The fact that young children become
competent, fluent speakers of their native languages with relatively little
exposure to them is the central mystery of language learning to which Chomsky
initially drew attention, and LLMs currently show little promise of solving
this mystery. Second, what can the artificial reveal about the natural? Put
simply, the implications of LLMs for our understanding of the cognitive
structures and mechanisms underlying language and its acquisition are like the
implications of airplanes for understanding how birds fly. Third, LLMs cannot
constitute scientific theories of language for several reasons, not least of
which is that scientific theories must provide interpretable explanations, not
just predictions. This leads to our final point: to even determine whether the
linguistic and cognitive capabilities of LLMs rival those of humans requires
explicating what humans' capacities actually are. In other words, it requires a
separate theory of language and cognition; generative linguistics provides
precisely such a theory. As such, we conclude that generative linguistics as a
scientific discipline will remain indispensable throughout the 21st century and
beyond.
- Abstract(参考訳): 我々は、ピアンタドシの2023年の主張を批判的に評価し、「現代言語モデルはチョムスキーの言語へのアプローチに反する」という4つの主要な点に焦点を当てた。
まず、大きな言語モデル(LLM)の性能と実用性にもかかわらず、人間は桁違いに少ないデータに曝露した後、言語に対する能力を達成する。
幼児が比較的ほとんど露出しないまま、母国語に精通した話し手になるという事実は、チョムスキーが最初に注目した言語学習の中心的な謎であり、LLMは今のところこの謎を解くという約束をほとんど示していない。
第二に、人工的に自然に何ができるのか?
簡単に言えば、llmが言語の基礎となる認知構造やメカニズムを理解する上での意義と、その獲得は、鳥の飛べ方を理解するための飛行機の意味のように思える。
第三に、llmはいくつかの理由から科学的な言語理論を構成することができないが、科学的理論は単なる予測ではなく解釈可能な説明を提供する必要がある。
LLMの言語能力と認知能力が人間に匹敵するかどうかを判断するためには、人間の能力が実際に何であるかを解明する必要がある。
言い換えれば、言語と認知の別の理論が必要であり、生成言語学はまさにそのような理論を提供する。
そのため,21世紀以降は,科学的分野としての生成言語学が不可欠であり続けると結論づけた。
関連論文リスト
- How Do Multilingual Models Remember? Investigating Multilingual Factual Recall Mechanisms [50.13632788453612]
大規模言語モデル(LLM)は、事前訓練中に取得した膨大な事実知識を格納し、取得する。
これらのプロセスが他の言語や多言語 LLM にどのように一般化されるのかという問題は未解明のままである。
言語がリコールプロセスにおいてどのような役割を果たすのかを考察し,言語に依存しない,言語に依存したメカニズムの証拠を明らかにする。
論文 参考訳(メタデータ) (2024-10-18T11:39:34Z) - Large Models of What? Mistaking Engineering Achievements for Human Linguistic Agency [0.11510009152620666]
我々は,Large Language Models(LLM)の言語能力に関する主張は,少なくとも2つの根拠のない仮定に基づいていると主張している。
言語完全性は、自然言語のような明瞭で完全なものが存在すると仮定する。
データ完全性の仮定は、言語がデータによって定量化され、完全にキャプチャされるという信念に依存している。
論文 参考訳(メタデータ) (2024-07-11T18:06:01Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Language Models Don't Learn the Physical Manifestation of Language [0.3529736140137004]
言語のみのモデルは言語の物理的表現を学ばないと主張する。
本稿では,H-Testと呼ばれる一連のタスクを通して,言語の視覚的聴覚特性を実証的に調査する。
論文 参考訳(メタデータ) (2024-02-17T17:52:24Z) - Meaning and understanding in large language models [0.0]
人工知能の生成的大言語モデル(LLM)の最近の発展は、機械による言語理解に関する伝統的な哲学的仮定を改訂する必要があるという信念を導いた。
本稿では,機械語の性能を単なる統語的操作と見なす傾向と理解のシミュレーションを批判的に評価する。
論文 参考訳(メタデータ) (2023-10-26T14:06:14Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - The Quo Vadis of the Relationship between Language and Large Language
Models [3.10770247120758]
LLM(Large Language Models)は、LLMを言語科学モデルとして採用することを奨励している。
透明性に欠ける科学的モデルの導入によって引き起こされる最も重要な理論的および経験的リスクを特定します。
現在の開発段階において、LLMは言語に関する説明をほとんど提供していないと結論付けている。
論文 参考訳(メタデータ) (2023-10-17T10:54:24Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Verbal behavior without syntactic structures: beyond Skinner and Chomsky [0.0]
言語がどんな人間の行動であるかを再発見しなければならない。
最近の心理学的、計算的、神経生物学的、そして行動の成型と構造に関する進化的な洞察は、我々を新しい、実行可能な言語の説明へと導くかもしれない。
論文 参考訳(メタデータ) (2023-03-11T00:01:21Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。