論文の概要: Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy
- arxiv url: http://arxiv.org/abs/2403.03288v1
- Date: Tue, 5 Mar 2024 19:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 17:06:51.222860
- Title: Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy
- Title(参考訳): 大きな言語モデルを恐れるべきだろうか?
ハイデッガー哲学のレンズを通してllm能力とリスクを明らかにするためのヒューマン推論システムの構造解析
- Authors: Jianqiiu Zhang
- Abstract要約: 本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving field of Large Language Models (LLMs), there is a
critical need to thoroughly analyze their capabilities and risks. Central to
our investigation are two novel elements. Firstly, it is the innovative
parallels between the statistical patterns of word relationships within LLMs
and Martin Heidegger's concepts of "ready-to-hand" and "present-at-hand," which
encapsulate the utilitarian and scientific altitudes humans employ in
interacting with the world. This comparison lays the groundwork for positioning
LLMs as the digital counterpart to the Faculty of Verbal Knowledge, shedding
light on their capacity to emulate certain facets of human reasoning. Secondly,
a structural analysis of human reasoning, viewed through Heidegger's notion of
truth as "unconcealment" is conducted This foundational principle enables us to
map out the inputs and outputs of the reasoning system and divide reasoning
into four distinct categories. Respective cognitive faculties are delineated,
allowing us to place LLMs within the broader schema of human reasoning, thus
clarifying their strengths and inherent limitations. Our findings reveal that
while LLMs possess the capability for Direct Explicative Reasoning and Pseudo
Rational Reasoning, they fall short in authentic rational reasoning and have no
creative reasoning capabilities, due to the current lack of many analogous AI
models such as the Faculty of Judgement. The potential and risks of LLMs when
they are augmented with other AI technologies are also evaluated. The results
indicate that although LLMs have achieved proficiency in some reasoning
abilities, the aspiration to match or exceed human intellectual capabilities is
yet unattained. This research not only enriches our comprehension of LLMs but
also propels forward the discourse on AI's potential and its bounds, paving the
way for future explorations into AI's evolving landscape.
- Abstract(参考訳): 急速に発展する大規模言語モデル(llm)の分野では、それらの能力とリスクを徹底的に分析する必要がある。
私たちの調査の中心は2つの新しい要素です。
第一に、LLMにおける単語関係の統計的パターンとマーティン・ハイデッガー(Martin Heidegger)の「ready-to-hand」と「present-at-hand」という概念の間には、人間が世界との対話に使用する実用的および科学的高度を包含する革新的な類似点がある。
この比較は、LLMを言語知識学部のデジタル版として位置づけることの基礎となり、人間の推論の特定の側面をエミュレートする能力に光を当てる。
第二に、ハイデッガーの真理概念を「不連続」と捉えた人間の推論の構造解析を行い、この基本原理により、推論システムの入力と出力をマッピングし、推論を4つの異なるカテゴリに分割することができる。
人間の推論のより広いスキーマにLSMを配置することで、その強みと固有の制限を明確にすることができる。
以上の結果から,LLMは直接的説明的推論や疑似合理的推論の能力を持っているが,判断学部のような多くの類似AIモデルがないため,真理的推論に乏しく,創造的推論能力を持たないことが明らかとなった。
LLMが他のAI技術で強化される可能性やリスクも評価されている。
その結果,LLMはある程度の推論能力で熟練しているものの,人間の知的能力に適合あるいは超越するという願望はまだ達成されていないことが示唆された。
この研究は、LLMの理解を深めるだけでなく、AIのポテンシャルとその限界についての議論を前進させ、AIの進化する風景を将来の探査する道を開く。
関連論文リスト
- FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Is Knowledge All Large Language Models Needed for Causal Reasoning? [12.898859965556698]
本稿では,大規模言語モデル(LLM)の因果推論について,人工知能の進化における解釈可能性と信頼性を高めるために検討する。
本稿では,「do-operators」を用いた新たな因果帰属モデルを提案する。
論文 参考訳(メタデータ) (2023-12-30T04:51:46Z) - Enhancing Logical Reasoning in Large Language Models to Facilitate Legal
Applications [4.062485135201161]
大規模言語モデル(LLM)は人間の言語理解と生成をエミュレートしようとするが、論理的推論におけるその能力は限られている。
LLMに論理的推論を効果的に教えるにはどうすればよいのか?
論理的推論におけるLLMの能力の強化に焦点をあてて、法やその他の論理的な分野における適用性の拡大を目指す。
論文 参考訳(メタデータ) (2023-11-22T01:51:50Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Are LLMs the Master of All Trades? : Exploring Domain-Agnostic Reasoning
Skills of LLMs [0.0]
本研究では,大規模言語モデル(LLM)の性能について,様々な推論課題について検討する。
その結果, LLMは類推的, 道徳的推論において優れているが, 空間的推論タスクにおいて, 熟達に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2023-03-22T22:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。