論文の概要: Why LLMs Cannot Think and How to Fix It
- arxiv url: http://arxiv.org/abs/2503.09211v1
- Date: Wed, 12 Mar 2025 10:00:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:40:19.709676
- Title: Why LLMs Cannot Think and How to Fix It
- Title(参考訳): LLMが考えない理由と修正方法
- Authors: Marius Jahrens, Thomas Martinetz,
- Abstract要約: 我々は、その用語の伝統的な理解を包含する「思考」の定義を確立し、それを大規模言語モデルに適用するために適応する。
特徴空間内で思考プロセスを実現するためのソリューションを提案し、これらのアーキテクチャ変更のより広範な意味について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper elucidates that current state-of-the-art Large Language Models (LLMs) are fundamentally incapable of making decisions or developing "thoughts" within the feature space due to their architectural constraints. We establish a definition of "thought" that encompasses traditional understandings of that term and adapt it for application to LLMs. We demonstrate that the architectural design and language modeling training methodology of contemporary LLMs inherently preclude them from engaging in genuine thought processes. Our primary focus is on this theoretical realization rather than practical insights derived from experimental data. Finally, we propose solutions to enable thought processes within the feature space and discuss the broader implications of these architectural modifications.
- Abstract(参考訳): 本稿では,現在最先端の大規模言語モデル (LLM) が,アーキテクチャ上の制約により,決定や機能空間内での「思考」の開発が根本的に不可能であることを明らかにする。
我々は、その用語の伝統的な理解を包含する「思考」の定義を確立し、LLMに適用するためにそれを適用する。
本研究では,現代LLMのアーキテクチャ設計と言語モデリングの手法が,真の思考プロセスへの関与を本質的に妨げていることを実証する。
我々の主な焦点は、実験データから導かれた実践的な洞察ではなく、この理論的な実現である。
最後に,機能空間における思考プロセスを実現するためのソリューションを提案し,これらのアーキテクチャ変更の広範な影響について論じる。
関連論文リスト
- Representation in large language models [0.0]
大規模言語モデルの振る舞いは、部分的に表現に基づく情報処理によって引き起こされていると私は主張する。
これらの表現を調査し、説明を開発するためのテクニックについて説明する。
論文 参考訳(メタデータ) (2025-01-01T16:19:48Z) - Blind Spot Navigation in LLM Reasoning with Thought Space Explorer [15.918115880403152]
我々はThought Space Explorer(TSE)を設計し、思考構造を拡張し、最適化し、大きな言語モデル(LLM)を誘導し、思考の盲点を探索する。
TSEは、様々な設計戦略により、元の思考構造に基づいて、新たな推論ステップと分岐を生成することにより、思考空間を広げ、LSM推論における盲点の影響を軽減する。
論文 参考訳(メタデータ) (2024-10-31T17:12:14Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Aligned at the Start: Conceptual Groupings in LLM Embeddings [10.282327560070202]
本稿では、しばしば見落とされがちな入力埋め込み(初期表現をトランスフォーマーブロックに入力する)に焦点を移す。
ファジィグラフ,k-nearest neighbor(k-NN),およびコミュニティ検出を用いて,多様なLDMの埋め込みを解析した。
論文 参考訳(メタデータ) (2024-06-08T01:27:19Z) - Standards for Belief Representations in LLMs [0.0]
我々は、信念のように数えられるように記入する表現の妥当性を論じる。
理論的考察と実践的制約のバランスをとるための4つの基準を確立する。
提案する基準は,精度,コヒーレンス,均一性,使用性である。
論文 参考訳(メタデータ) (2024-05-31T17:21:52Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z) - Towards Concept-Aware Large Language Models [56.48016300758356]
概念は、学習、推論、コミュニケーションなど、様々な人間の認知機能において重要な役割を果たす。
概念を形作り、推論する能力を持つ機械を授けることは、ほとんどない。
本研究では,現代における大規模言語モデル(LLM)が,人間の概念とその構造をどのように捉えているかを分析する。
論文 参考訳(メタデータ) (2023-11-03T12:19:22Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。