論文の概要: Is it the end of (generative) linguistics as we know it?
- arxiv url: http://arxiv.org/abs/2412.12797v1
- Date: Tue, 17 Dec 2024 11:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:30.389208
- Title: Is it the end of (generative) linguistics as we know it?
- Title(参考訳): それは私たちが知っている(生成的な)言語学の終わりか?
- Authors: Cristiano Chesi,
- Abstract要約: ピアンタドシによるチョムスキーのアプローチの取り消しは残酷だが、生成言語学者はそれに値する。
言語学における中心的な役割を取り戻すためには、生成言語学は真剣な更新が必要である。
形式的な視点を無視することは、計算と実験の両方のアプローチに大きな欠点をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: A significant debate has emerged in response to a paper written by Steven Piantadosi (Piantadosi, 2023) and uploaded to the LingBuzz platform, the open archive for generative linguistics. Piantadosi's dismissal of Chomsky's approach is ruthless, but generative linguists deserve it. In this paper, I will adopt three idealized perspectives -- computational, theoretical, and experimental -- to focus on two fundamental issues that lend partial support to Piantadosi's critique: (a) the evidence challenging the Poverty of Stimulus (PoS) hypothesis and (b) the notion of simplicity as conceived within mainstream Minimalism. In conclusion, I argue that, to reclaim a central role in language studies, generative linguistics -- representing a prototypical theoretical perspective on language -- needs a serious update leading to (i) more precise, consistent, and complete formalizations of foundational intuitions and (ii) the establishment and utilization of a standardized dataset of crucial empirical evidence to evaluate the theory's adequacy. On the other hand, ignoring the formal perspective leads to major drawbacks in both computational and experimental approaches. Neither descriptive nor explanatory adequacy can be easily achieved without the precise formulation of general principles that can be challenged empirically.
- Abstract(参考訳): スティーブン・ピアンタドシ(英語版)(Pantadosi、2023年)が執筆し、生成言語学のオープンアーカイブであるLingBuzzプラットフォームにアップロードした論文に反応して、重要な議論が持ち上がった。
ピアンタドシによるチョムスキーのアプローチの取り消しは残酷だが、生成言語学者はそれに値する。
本稿では、ピアンタドシの批判を部分的に支持する2つの基本的な問題に焦点をあてるために、3つの理想化された視点(計算、理論、実験)を採用する。
(a)刺激の貧困(PoS)仮説に異議を唱える証拠及び
(b)主流のミニマリズムの中で考え出された単純さの概念。
結論として、言語研究における中心的な役割を取り戻すためには、生成言語学 -- 言語に関する原型論的視点を表す -- は、真剣な更新を導く必要がある、と私は論じる。
一 基礎的直観のより正確で一貫した完全な定式化
二 理論の妥当性を評価するための重要な実証的証拠の標準化されたデータセットの確立及び活用
一方、形式的な視点を無視することは、計算と実験の両方のアプローチにおいて大きな欠点をもたらす。
説明的あるいは説明的妥当性は、経験的に挑戦できる一般的な原則の正確な定式化なしには容易に達成できない。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Reasoning Abilities of Large Language Models: In-Depth Analysis on the Abstraction and Reasoning Corpus [4.569421189811511]
大規模言語モデル(LLM)の推論と文脈理解能力を評価する新しい手法を提案する。
思考仮説言語(LoTH:Logical Coherence, compositionality, Productivity)の3つの重要なコンポーネントに注目します。
実験の結果,LSMは推論能力を示す一方で,これらの3つの側面において,人間レベルの推論に遅れが生じることが判明した。
論文 参考訳(メタデータ) (2024-03-18T13:50:50Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Uncertainty in Natural Language Generation: From Theory to Applications [42.55924708592451]
我々は,不確実性に対する原則的対応が,これらの目標に適合するシステムや評価プロトコルの作成に有効であると主張している。
まず,不確実性を表現するために必要な基本理論,枠組み,語彙について述べる。
そこで,本研究では,一般的なアレタリック/エピステミック二分法よりも情報的かつ忠実な2次元分類法を提案する。
論文 参考訳(メタデータ) (2023-07-28T17:51:21Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Towards Zero-shot Commonsense Reasoning with Self-supervised Refinement
of Language Models [27.11678023496321]
本稿では,Winograd Challengeにおけるゼロショットコモンセンス推論の実現可能性について検討する。
類似概念関係の言語摂動を用いて言語モデルを洗練する,新たな自己教師型学習手法を提案する。
概念的にシンプルなフレームワークの実証分析は、複数のベンチマーク上でゼロショットコモンセンス推論が実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-10T21:02:24Z) - Thirty years of Epistemic Specifications [8.339560855135575]
我々は、主観的リテラルと呼ばれるモーダル構造を持つ安定モデルセマンティクスの下で、解法論理プログラムを拡張した。
主観的リテラルを用いることで、プログラムのすべての安定モデルで正規リテラルが真かどうかを確認することができる。
形式的な意味論によって言語の基礎となる直観を捉えようとするいくつかの試みが与えられた。
論文 参考訳(メタデータ) (2021-08-17T15:03:10Z) - Critical Thinking for Language Models [6.963299759354333]
本稿では,ニューラル自動回帰言語モデルの批判的思考カリキュラムに向けて第一歩を踏み出す。
我々は、GPT-2を訓練し、評価するために、人工的な議論文を生成する。
NLUベンチマークに対して一貫した有望な結果が得られる。
論文 参考訳(メタデータ) (2020-09-15T15:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。