論文の概要: Language and Thought: The View from LLMs
- arxiv url: http://arxiv.org/abs/2505.13561v1
- Date: Mon, 19 May 2025 09:29:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.44214
- Title: Language and Thought: The View from LLMs
- Title(参考訳): 言語と思考: LLMからの視点
- Authors: Daniel Rothschild,
- Abstract要約: AIにおける最近の研究は、言語訓練なしでAIシステムのパフォーマンスを探求することで、デネットの論文をテストするものと見なすことができる。
推論的推論における大規模言語モデルの成功は、たとえそうであっても、思考に対する言語の影響についてのデネットの過激な見解を支持している、と私は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Daniel Dennett speculated in *Kinds of Minds* 1996: "Perhaps the kind of mind you get when you add language to it is so different from the kind of mind you can have without language that calling them both minds is a mistake." Recent work in AI can be seen as testing Dennett's thesis by exploring the performance of AI systems with and without linguistic training. I argue that the success of Large Language Models at inferential reasoning, limited though it may be, supports Dennett's radical view about the effect of language on thought. I suggest it is the abstractness and efficiency of linguistic encoding that lies behind the capacity of LLMs to perform inferences across a wide range of domains. In a slogan, language makes inference computationally tractable. I assess what these results in AI indicate about the role of language in the workings of our own biological minds.
- Abstract(参考訳): ダニエル・デネット(Daniel Dennett)は1996年に「言語を追加するときに得られる心の種類は、言語なしで持つことのできる心の種類と大きく異なり、両方の心を呼ぶことは間違いである」と推測した。
AIにおける最近の研究は、言語訓練なしでAIシステムのパフォーマンスを探求することで、デネットの論文をテストするものと見なすことができる。
推論的推論における大規模言語モデルの成功は、たとえそうであっても、思考に対する言語の影響についてのデネットの過激な見解を支持している、と私は主張する。
言語符号化の抽象性と効率性がLLMの能力の裏側にあることを提案します。
スローガンでは、言語は推論を計算的に抽出できる。
私は、AIにおけるこれらの結果が、私たちの生物学的心の働きにおける言語の役割について示すものを評価します。
関連論文リスト
- On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units [16.317199232071232]
大規模言語モデル(LLM)は、言語タスクだけでなく、言語的でない様々なタスクにも顕著な能力を示す。
人間の脳では、神経科学は言語処理を選択的に因果的にサポートするコア言語システムを特定している。
言語選択単位を18のLLMで同定し、神経科学で用いられるのと同じ局所化手法を用いて同定する。
論文 参考訳(メタデータ) (2024-11-04T17:09:10Z) - MeTHanol: Modularized Thinking Language Models with Intermediate Layer Thinking, Decoding and Bootstrapping Reasoning [10.478620397712076]
大規模言語モデルは、人間の表現を合理的に理解し、生成することができるが、完全な思考と推論機構が欠如している可能性がある。
本稿では,自然界における認知メカニズムに動機付けられ,TaSと呼ばれる新しいモデルアーキテクチャを設計する。
思考強化データを用いて言語モデルを訓練し、思考層が合理的な思考を自動的に生成し、最終的にはより合理的な応答を出力することに成功した。
論文 参考訳(メタデータ) (2024-09-18T15:32:48Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。