論文の概要: Does Thought Require Sensory Grounding? From Pure Thinkers to Large Language Models
- arxiv url: http://arxiv.org/abs/2408.09605v1
- Date: Sun, 18 Aug 2024 22:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 18:03:47.223914
- Title: Does Thought Require Sensory Grounding? From Pure Thinkers to Large Language Models
- Title(参考訳): 感覚接地は必要か? 純粋思考者から大規模言語モデルへ
- Authors: David J. Chalmers,
- Abstract要約: この話題に関する活発な議論は哲学の歴史を通じて行われ、現在は人工知能に関する議論に熱中している。
私は原則として、純粋に思考できる、つまり、完全に理解する能力に欠ける思考者がいる、と論じます。
私は、大きな言語モデルが考えたり理解したりできるとは直接論じませんが、私は、それらができない重要な論点(感覚的根拠からの論点)に反論します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Does the capacity to think require the capacity to sense? A lively debate on this topic runs throughout the history of philosophy and now animates discussions of artificial intelligence. I argue that in principle, there can be pure thinkers: thinkers that lack the capacity to sense altogether. I also argue for significant limitations in just what sort of thought is possible in the absence of the capacity to sense. Regarding AI, I do not argue directly that large language models can think or understand, but I rebut one important argument (the argument from sensory grounding) that they cannot. I also use recent results regarding language models to address the question of whether or how sensory grounding enhances cognitive capacities.
- Abstract(参考訳): 考える能力には、理解する能力が必要ですか?
この話題に関する活発な議論は哲学の歴史を通じて行われ、現在は人工知能に関する議論に熱中している。
私は原則として、純粋に思考できる、つまり、完全に理解する能力に欠ける思考者がいる、と論じます。
私はまた、能力の欠如において、どんな思考が可能かという大きな制限についても論じています。
AIに関して、私は大きな言語モデルが考えるか理解できるかを直接論じるわけではないが、私は、彼らができない重要な論点(感覚的根拠からの議論)に反論する。
また,感性接地が認知能力を高めるかどうかという問題に対処するために,言語モデルに関する最近の研究結果を用いている。
関連論文リスト
- We Can't Understand AI Using our Existing Vocabulary [22.352112061625768]
AIを理解するためには、人間の言葉の既存の語彙を頼りにすることはできない、と私たちは主張する。
私たちは、機械に教えたい人間の概念を正確に表現する新しい言葉、ネオロジズムを開発することに努めるべきです。
論文 参考訳(メタデータ) (2025-02-11T14:34:05Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - An Essay concerning machine understanding [0.0]
このエッセイでは、理解可能なマシンを構築する方法について述べています。
単語を理解するためには、それが指標である根底にある概念を知って、扱えることが必要です。
論文 参考訳(メタデータ) (2024-05-03T04:12:43Z) - Implicit Chain of Thought Reasoning via Knowledge Distillation [58.80851216530288]
思考推論ステップの連鎖を明示的に生成する代わりに、言語モデルの内部の隠れ状態を使用して暗黙の推論を行います。
このアプローチにより、明示的にチェーン・オブ・シントなしでは解決不可能なタスクを、非チェーン・オブ・シントに匹敵する速度で解決できることが分かりました。
論文 参考訳(メタデータ) (2023-11-02T17:59:49Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Could a Large Language Model be Conscious? [0.0]
最近、大きな言語モデルがセンシティブかどうかが広く議論されている。
私は最強の理由と反対の理由を断ち切る。
結論として、現在の大規模言語モデルが意識的であるとは考えられませんが、そう遠くない未来において、大規模言語モデルの後継モデルが意識されている可能性について真剣に考える必要があります。
論文 参考訳(メタデータ) (2023-03-04T19:14:20Z) - Mind's Eye: Grounded Language Model Reasoning through Simulation [47.654525013443255]
我々は,物理世界における基礎言語モデル推論のパラダイムであるMind's Eyeを提示する。
実験により、マインドズアイは推論能力を大きく向上させることができることが示された。
Mind's Eyeで武装したより小さな言語モデルは、100倍の大きさのモデルと同じようなパフォーマンスを得ることができる。
論文 参考訳(メタデータ) (2022-10-11T11:39:23Z) - What can we know about that which we cannot even imagine? [0.2797210504706914]
最初の疑問は、知能の生物学的機能、特に人間の知能の認知的補綴に関するものである。
言語で強化されているにもかかわらず、人間の言語がいかに恐ろしいほど制限されているか、そして、我々の認知能力がどれほど制限されているかを強調します。
そして、これらの質問を組み合わせて、このエッセイの指導的関心事に答える。
論文 参考訳(メタデータ) (2022-08-08T03:07:02Z) - Do Artificial Intelligence Systems Understand? [0.0]
提示された「知的な」振る舞いを説明するために、機械に対する理解を説明する必要はない。
タスク解決ツールとしてのインテリジェンスに対する単なる構文的・機械的アプローチは、表示可能な操作範囲を正当化するのに十分である。
論文 参考訳(メタデータ) (2022-07-22T13:57:02Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。