論文の概要: Why the Valuable Capabilities of LLMs Are Precisely the Unexplainable Ones
- arxiv url: http://arxiv.org/abs/2603.15238v2
- Date: Tue, 17 Mar 2026 11:49:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 13:19:44.044876
- Title: Why the Valuable Capabilities of LLMs Are Precisely the Unexplainable Ones
- Title(参考訳): LLMの有意義な能力が正確に説明できないものなのか
- Authors: Quan Cheng,
- Abstract要約: 論文は、大きな言語モデル(LLM)の真に価値のある能力は、人間の可読性を持つ離散ルールによって完全に捕捉できない部分にある、と論じている。
本稿では,解釈可能性研究,AI安全性,科学的解釈可能性について論じる。
- 参考スコア(独自算出の注目度): 0.786119752211706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes and argues for a counterintuitive thesis: the truly valuable capabilities of large language models (LLMs) reside precisely in the part that cannot be fully captured by human-readable discrete rules. The core argument is a proof by contradiction via expert system equivalence: if the full capabilities of an LLM could be described by a complete set of human-readable rules, then that rule set would be functionally equivalent to an expert system; but expert systems have been historically and empirically demonstrated to be strictly weaker than LLMs; therefore, a contradiction arises -- the capabilities of LLMs that exceed those of expert systems are exactly the capabilities that cannot be rule-encoded. This thesis is further supported by the Chinese philosophical concept of Wu (sudden insight through practice), the historical failure of expert systems, and a structural mismatch between human cognitive tools and complex systems. The paper discusses implications for interpretability research, AI safety, and scientific epistemology.
- Abstract(参考訳): 大規模言語モデル(LLM)の真に価値ある能力は、人間に読めない離散ルールによって完全に捕捉できない部分に存在する。
LLMの完全な能力が人間の可読性の完全な規則によって記述できるならば、そのルールセットは専門家システムと機能的に同等である。しかし、専門家システムは歴史的に経験的にLLMよりも厳密に弱いことが証明されている。
この論説は、中国の哲学的思想であるヴ(実践を通しての見識)、専門家制度の歴史的失敗、そして人間の認知ツールと複雑なシステムの間の構造的ミスマッチによってさらに支持されている。
本稿では,解釈可能性研究,AI安全性,科学認識学の意義について論じる。
関連論文リスト
- Ambiguity Collapse by LLMs: A Taxonomy of Epistemic Risks [5.45414933764086]
大規模言語モデル(LLM)はあいまいで、オープンなテクスチャ付き、バリューラインドな言葉を理解するためにますます使われています。
本稿では,LLMが複数の正当解釈を真に認める用語に遭遇するが,特異解を生成する現象であるあいまいさ崩壊を紹介する。
論文 参考訳(メタデータ) (2026-03-06T01:23:17Z) - The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge [0.0]
我々は、二重プロセス理論を背景として、人間集団に分散した合理性理論を開発する。
我々は、命題が真である理由の反射的理解として定義される内部主義者の正当性と、真理の信頼できる伝達として定義される外部主義者の正当性とを区別する。
LLMは、他所で正当な根拠が確立されている情報を確実に伝達できるため、外部主義的信頼性を近似するが、それ自身は反射的正当性を持っていない。
論文 参考訳(メタデータ) (2025-12-22T16:52:37Z) - Thinking Longer, Not Always Smarter: Evaluating LLM Capabilities in Hierarchical Legal Reasoning [11.255428720705204]
本稿では,ケース間の重要な区別を3段階の推論タスクに分解する枠組みを提案する。
我々のフレームワークは、要因と呼ばれる事実的述語を使用してケースをモデル化し、それらを法的知識階層に整理し、区別を識別するための検証可能なルールを定義します。
我々は、モデルが正しい応答よりも間違った応答について、常に多くの計算資源を消費していることを発見し、「より長く考えることは、必ずしも「より賢く考える」という意味ではないことを示唆している。
論文 参考訳(メタデータ) (2025-10-09T18:15:28Z) - Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - What's in an embedding? Would a rose by any embedding smell as sweet? [0.0]
大規模言語モデル(LLM)は、真の「理解」と知識を「理解」する能力に欠けるとしてしばしば批判される。
我々は, LLM が「幾何学的」な経験的「下地」を発達させ, NLP の様々な応用に適していると考えられることを示唆する。
これらの制限を克服するために、LLMはシンボリックAI要素を含む知識の「代数的」表現と統合されるべきである。
論文 参考訳(メタデータ) (2024-06-11T01:10:40Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。