論文の概要: "On the goals of linguistic theory": Revisiting Chomskyan theories in the era of AI
- arxiv url: http://arxiv.org/abs/2411.10533v1
- Date: Fri, 15 Nov 2024 19:09:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:34:04.294882
- Title: "On the goals of linguistic theory": Revisiting Chomskyan theories in the era of AI
- Title(参考訳): 『言語理論の目標』:AI時代のチョムスキー理論を再考する
- Authors: Eva Portelance, Masoud Jasbi,
- Abstract要約: 理論的言語学は、人間の言語とは何か、なぜなのかを説明する。
大きな言語モデルのような人工知能モデルは、印象的な言語能力を持つことが証明されている。
多くの人は、理論言語学が究極的な研究目標に達するのを助けるために、そのようなモデルがどのような役割を果たすべきかを疑問視している。
- 参考スコア(独自算出の注目度): 0.20923359361008084
- License:
- Abstract: Theoretical linguistics seeks to explain what human language is, and why. Linguists and cognitive scientists have proposed different theoretical models of what language is, as well as cognitive factors that shape it, and allow humans to 'produce', 'understand', and 'acquire' natural languages. However, humans may no longer be the only ones learning to 'generate', 'parse', and 'learn' natural language: artificial intelligence (AI) models such as large language models are proving to have impressive linguistic capabilities. Many are thus questioning what role, if any, such models should play in helping theoretical linguistics reach its ultimate research goals? In this paper, we propose to answer this question, by reiterating the tenets of generative linguistics, a leading school of thought in the field, and by considering how AI models as theories of language relate to each of these important concepts. Specifically, we consider three foundational principles, finding roots in the early works of Noam Chomsky: (1) levels of theoretical adequacy; (2) procedures for linguistic theory development; (3) language learnability and Universal Grammar. In our discussions of each principle, we give special attention to two types of AI models: neural language models and neural grammar induction models. We will argue that such models, in particular neural grammar induction models, do have a role to play, but that this role is largely modulated by the stance one takes regarding each of these three guiding principles.
- Abstract(参考訳): 理論的言語学は、人間の言語とは何か、なぜなのかを説明する。
言語学者と認知科学者は、言語が何であるかの異なる理論モデルと、それを形作る認知的要因を提案し、人間が「生産」「理解」「獲得」できるようにした。
しかし、人間だけが「生成」、「パース」、そして「学習」自然言語を学ぶことはもはやなく、大きな言語モデルのような人工知能(AI)モデルは印象的な言語能力を持つことが証明されている。
したがって、理論言語学が究極的な研究目標に達するのを助ける上で、そのようなモデルがどのような役割を果たすべきかを疑問視する向きもある。
本稿では,言語理論としてのAIモデルが,これらの重要な概念のそれぞれにどのように関係しているかを考察し,生成言語学の長所を再考することによって,この問題に対処することを提案する。
具体的には、ノーム・チョムスキーの初期の著作の根本となる3つの基礎原理を考察する:(1)理論的妥当性のレベル、(2)言語理論の発展の手順、(3)言語学習性、および普遍文法。
それぞれの原理の議論において、ニューラルネットワークモデルとニューラル文法誘導モデルという2つのタイプのAIモデルに特に注目する。
このようなモデル、特にニューラル文法の帰納モデルが果たす役割については論じるが、この役割はこれら3つの原則のそれぞれにかかわるスタンスに大きく左右される。
関連論文リスト
- Proceedings of the First International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2024) [16.282850445579857]
推論は人間の知性の本質的な要素であり、批判的に考える能力において基本的な役割を果たす。
自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
言語モデルにおける推論について議論が続いているが、これらのモデルが実際に推論できる程度に注目することは容易ではない。
論文 参考訳(メタデータ) (2024-10-07T02:31:47Z) - A Philosophical Introduction to Language Models -- Part I: Continuity
With Classic Debates [0.05657375260432172]
この記事では、哲学者の言語モデルに関するプライマーとしての役割と、その重要性に関する世論調査としての役割について述べる。
言語モデルの成功は、人工ニューラルネットワークに関する長年の仮定に挑戦するものだ、と我々は主張する。
これは、共用紙(Part II)のステージを設定し、言語モデルの内部動作を探索するための新しい経験的手法に転換する。
論文 参考訳(メタデータ) (2024-01-08T14:12:31Z) - Formal Aspects of Language Modeling [74.16212987886013]
大規模言語モデルは最も一般的なNLP発明の1つとなっている。
これらのノートは、ETH Z "urich course on large language model" の理論的部分の伴奏である。
論文 参考訳(メタデータ) (2023-11-07T20:21:42Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Why can neural language models solve next-word prediction? A
mathematical perspective [53.807657273043446]
本研究では,英語文の実例をモデル化するための形式言語群について検討する。
我々の証明は、ニューラルネットワークモデルにおける埋め込み層と完全に接続されたコンポーネントの異なる役割を強調します。
論文 参考訳(メタデータ) (2023-06-20T10:41:23Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Language Models are not Models of Language [0.0]
トランスファーラーニングにより、言語モデリングタスクでトレーニングされた大規模なディープラーニングニューラルネットワークにより、パフォーマンスが大幅に向上した。
深層学習モデルは言語の理論的モデルではないので、言語モデルという用語は誤解を招く。
論文 参考訳(メタデータ) (2021-12-13T22:39:46Z) - Language Modelling as a Multi-Task Problem [12.48699285085636]
言語モデルが訓練中のマルチタスク学習の学習原理に適合するかどうかを検討する。
実験では、言語モデリングのより一般的なタスクの目的の中で、マルチタスク設定が自然に現れることを示した。
論文 参考訳(メタデータ) (2021-01-27T09:47:42Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。