論文の概要: Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023)
- arxiv url: http://arxiv.org/abs/2308.03228v1
- Date: Sun, 6 Aug 2023 23:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:52:17.250891
- Title: Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023)
- Title(参考訳): 21世紀に言語学が繁栄する理由--ピアンタドシへの返答(2023年)
- Authors: Jordan Kodner, Sarah Payne, Jeffrey Heinz
- Abstract要約: 我々は、「現代言語モデルはチョムスキーの言語へのアプローチに反する」というピアンタドシの主張を批判的に評価する。
大きな言語モデルの性能と実用性にもかかわらず、人間は桁違いに少ないデータに晒された後、言語に対する能力を達成する。
本稿は,21世紀以降の科学分野としての生成言語学が不可欠であると結論付けている。
- 参考スコア(独自算出の注目度): 5.2424255020469595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a critical assessment of Piantadosi's (2023) claim that "Modern
language models refute Chomsky's approach to language," focusing on four main
points. First, despite the impressive performance and utility of large language
models (LLMs), humans achieve their capacity for language after exposure to
several orders of magnitude less data. The fact that young children become
competent, fluent speakers of their native languages with relatively little
exposure to them is the central mystery of language learning to which Chomsky
initially drew attention, and LLMs currently show little promise of solving
this mystery. Second, what can the artificial reveal about the natural? Put
simply, the implications of LLMs for our understanding of the cognitive
structures and mechanisms underlying language and its acquisition are like the
implications of airplanes for understanding how birds fly. Third, LLMs cannot
constitute scientific theories of language for several reasons, not least of
which is that scientific theories must provide interpretable explanations, not
just predictions. This leads to our final point: to even determine whether the
linguistic and cognitive capabilities of LLMs rival those of humans requires
explicating what humans' capacities actually are. In other words, it requires a
separate theory of language and cognition; generative linguistics provides
precisely such a theory. As such, we conclude that generative linguistics as a
scientific discipline will remain indispensable throughout the 21st century and
beyond.
- Abstract(参考訳): 我々は、ピアンタドシの2023年の主張を批判的に評価し、「現代言語モデルはチョムスキーの言語へのアプローチに反する」という4つの主要な点に焦点を当てた。
まず、大きな言語モデル(LLM)の性能と実用性にもかかわらず、人間は桁違いに少ないデータに曝露した後、言語に対する能力を達成する。
幼児が比較的ほとんど露出しないまま、母国語に精通した話し手になるという事実は、チョムスキーが最初に注目した言語学習の中心的な謎であり、LLMは今のところこの謎を解くという約束をほとんど示していない。
第二に、人工的に自然に何ができるのか?
簡単に言えば、llmが言語の基礎となる認知構造やメカニズムを理解する上での意義と、その獲得は、鳥の飛べ方を理解するための飛行機の意味のように思える。
第三に、llmはいくつかの理由から科学的な言語理論を構成することができないが、科学的理論は単なる予測ではなく解釈可能な説明を提供する必要がある。
LLMの言語能力と認知能力が人間に匹敵するかどうかを判断するためには、人間の能力が実際に何であるかを解明する必要がある。
言い換えれば、言語と認知の別の理論が必要であり、生成言語学はまさにそのような理論を提供する。
そのため,21世紀以降は,科学的分野としての生成言語学が不可欠であり続けると結論づけた。
関連論文リスト
- Can Language Models Learn Typologically Implausible Languages? [62.823015163987996]
人間の言語にまたがる文法的特徴は、人間の学習バイアスに起因する興味深い相関関係を示している。
言語モデル(LM)が言語普遍性におけるドメイン一般学習バイアスの役割をよりよく決定する方法について論じる。
本研究は,英語(頭初期)と日本語(頭最終)の超自然主義的だが反実的なバージョンを用いて,LMを試験する。
論文 参考訳(メタデータ) (2025-02-17T20:40:01Z) - How Linguistics Learned to Stop Worrying and Love the Language Models [17.413438037432414]
我々は、LMの成功は言語理論と構造を研究する必要性を損なうと論じている。
彼らは我々に学習に関する議論を再考させ、言語理論における主要な疑問に対して情報を与える。
言語モデルと言語学の関係について楽観的な見解を提供する。
論文 参考訳(メタデータ) (2025-01-28T16:13:19Z) - How Do Multilingual Language Models Remember Facts? [50.13632788453612]
これまでに同定された英語のリコール機構が多言語文脈に適用可能であることを示す。
我々は、リコール中の言語の役割をローカライズし、エンリッチメントが言語に依存しないことを発見した。
デコーダのみのLLMでは、FVは2つの異なる段階でこれらの2つの情報を構成する。
論文 参考訳(メタデータ) (2024-10-18T11:39:34Z) - Large Models of What? Mistaking Engineering Achievements for Human Linguistic Agency [0.11510009152620666]
我々は,Large Language Models(LLM)の言語能力に関する主張は,少なくとも2つの根拠のない仮定に基づいていると主張している。
言語完全性は、自然言語のような明瞭で完全なものが存在すると仮定する。
データ完全性の仮定は、言語がデータによって定量化され、完全にキャプチャされるという信念に依存している。
論文 参考訳(メタデータ) (2024-07-11T18:06:01Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Language Models Don't Learn the Physical Manifestation of Language [0.3529736140137004]
言語のみのモデルは言語の物理的表現を学ばないと主張する。
本稿では,H-Testと呼ばれる一連のタスクを通して,言語の視覚的聴覚特性を実証的に調査する。
論文 参考訳(メタデータ) (2024-02-17T17:52:24Z) - Meaning and understanding in large language models [0.0]
人工知能の生成的大言語モデル(LLM)の最近の発展は、機械による言語理解に関する伝統的な哲学的仮定を改訂する必要があるという信念を導いた。
本稿では,機械語の性能を単なる統語的操作と見なす傾向と理解のシミュレーションを批判的に評価する。
論文 参考訳(メタデータ) (2023-10-26T14:06:14Z) - The Quo Vadis of the Relationship between Language and Large Language
Models [3.10770247120758]
LLM(Large Language Models)は、LLMを言語科学モデルとして採用することを奨励している。
透明性に欠ける科学的モデルの導入によって引き起こされる最も重要な理論的および経験的リスクを特定します。
現在の開発段階において、LLMは言語に関する説明をほとんど提供していないと結論付けている。
論文 参考訳(メタデータ) (2023-10-17T10:54:24Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。