論文の概要: A Philosophical Introduction to Language Models -- Part I: Continuity
With Classic Debates
- arxiv url: http://arxiv.org/abs/2401.03910v1
- Date: Mon, 8 Jan 2024 14:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 16:04:32.636086
- Title: A Philosophical Introduction to Language Models -- Part I: Continuity
With Classic Debates
- Title(参考訳): 言語モデルに関する哲学入門-その1:古典的議論との連続性
- Authors: Rapha\"el Milli\`ere, Cameron Buckner
- Abstract要約: この記事では、哲学者の言語モデルに関するプライマーとしての役割と、その重要性に関する世論調査としての役割について述べる。
言語モデルの成功は、人工ニューラルネットワークに関する長年の仮定に挑戦するものだ、と我々は主張する。
これは、共用紙(Part II)のステージを設定し、言語モデルの内部動作を探索するための新しい経験的手法に転換する。
- 参考スコア(独自算出の注目度): 0.05657375260432172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models like GPT-4 have achieved remarkable proficiency in a
broad spectrum of language-based tasks, some of which are traditionally
associated with hallmarks of human intelligence. This has prompted ongoing
disagreements about the extent to which we can meaningfully ascribe any kind of
linguistic or cognitive competence to language models. Such questions have deep
philosophical roots, echoing longstanding debates about the status of
artificial neural networks as cognitive models. This article -- the first part
of two companion papers -- serves both as a primer on language models for
philosophers, and as an opinionated survey of their significance in relation to
classic debates in the philosophy cognitive science, artificial intelligence,
and linguistics. We cover topics such as compositionality, language
acquisition, semantic competence, grounding, world models, and the transmission
of cultural knowledge. We argue that the success of language models challenges
several long-held assumptions about artificial neural networks. However, we
also highlight the need for further empirical investigation to better
understand their internal mechanisms. This sets the stage for the companion
paper (Part II), which turns to novel empirical methods for probing the inner
workings of language models, and new philosophical questions prompted by their
latest developments.
- Abstract(参考訳): GPT-4のような大規模言語モデルは、言語に基づくタスクの幅広い範囲で卓越した熟練を実現している。
このことは、言語モデルに対するいかなる言語的または認知的能力も有意に説明できる範囲について、継続的な意見の相違を引き起こしている。
このような疑問は深い哲学的ルーツを持ち、認知モデルとしてのニューラルネットワークの現状に関する長年の議論を反映している。
この記事は2つの共著の第1部であり、哲学者の言語モデルに関するプライマーとして、また哲学の認知科学、人工知能、言語学における古典的な議論に関連するそれらの重要性に関する意見調査としての役割を果たす。
我々は,構成性,言語習得,意味能力,接地,世界モデル,文化知識の伝達といったトピックを取り上げている。
言語モデルの成功は、ニューラルネットワークに関する長期にわたる仮定に挑戦していると論じている。
しかし、内部メカニズムをよりよく理解するためには、さらなる実験的な調査の必要性も強調する。
これは、言語モデルの内部動作を探索する新しい経験的手法と、それらの最新の発展によって引き起こされた新たな哲学的問題に転換する、共用紙(Part II)のステージを定めている。
関連論文リスト
- Finding Structure in Language Models [3.882018118763685]
この論文は、言語モデルが人間のものと似た文法構造を深く理解しているかどうかに関するものである。
我々は,大規模言語モデルの複雑な性質の理解を深める新しい解釈可能性技術を開発する。
論文 参考訳(メタデータ) (2024-11-25T14:37:24Z) - "On the goals of linguistic theory": Revisiting Chomskyan theories in the era of AI [0.20923359361008084]
理論的言語学は、人間の言語とは何か、なぜなのかを説明する。
大きな言語モデルのような人工知能モデルは、印象的な言語能力を持つことが証明されている。
多くの人は、理論言語学が究極的な研究目標に達するのを助けるために、そのようなモデルがどのような役割を果たすべきかを疑問視している。
論文 参考訳(メタデータ) (2024-11-15T19:09:22Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Proceedings of the First International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2024) [16.282850445579857]
推論は人間の知性の本質的な要素であり、批判的に考える能力において基本的な役割を果たす。
自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
言語モデルにおける推論について議論が続いているが、これらのモデルが実際に推論できる程度に注目することは容易ではない。
論文 参考訳(メタデータ) (2024-10-07T02:31:47Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Dissociating language and thought in large language models [52.39241645471213]
大規模言語モデル(LLM)は、人間の言語を習得する上で、今までに最も近いモデルである。
我々は、この区別を人間の神経科学に根ざし、形式的、機能的な能力は異なる神経機構に依存していることを示した。
LLMは形式的能力は驚くほど優れているが、機能的能力のタスクにおける性能はいまだに不明瞭である。
論文 参考訳(メタデータ) (2023-01-16T22:41:19Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Integrating Linguistic Theory and Neural Language Models [2.870517198186329]
理論的言語学とニューラル言語モデルが相互にどのように関係しているかを説明するためのケーススタディをいくつか提示する。
この論文は、言語モデルにおける構文意味インタフェースの異なる側面を探求する3つの研究に貢献する。
論文 参考訳(メタデータ) (2022-07-20T04:20:46Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。