論文の概要: Deflating Deflationism: A Critical Perspective on Debunking Arguments Against LLM Mentality
- arxiv url: http://arxiv.org/abs/2506.13403v1
- Date: Mon, 16 Jun 2025 12:17:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.304149
- Title: Deflating Deflationism: A Critical Perspective on Debunking Arguments Against LLM Mentality
- Title(参考訳): Deflating Deflationism: A critical perspective on Debunking Arguments against LLM Mentality
- Authors: Alex Grzankowski, Geoff Keeling, Henry Shevlin, Winnie Street,
- Abstract要約: 我々は、民間の実践が、精神状態と能力をLLMにもたらすために、実現不可能な基盤を提供すると論じている。
LLMs simpliciterに対して、どちらの戦略も精神徴候に対するノックダウンケースを提供していないことが判明した。
- 参考スコア(独自算出の注目度): 0.12041807591122715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many people feel compelled to interpret, describe, and respond to Large Language Models (LLMs) as if they possess inner mental lives similar to our own. Responses to this phenomenon have varied. Inflationists hold that at least some folk psychological ascriptions to LLMs are warranted. Deflationists argue that all such attributions of mentality to LLMs are misplaced, often cautioning against the risk that anthropomorphic projection may lead to misplaced trust or potentially even confusion about the moral status of LLMs. We advance this debate by assessing two common deflationary arguments against LLM mentality. What we term the 'robustness strategy' aims to undercut one justification for believing that LLMs are minded entities by showing that putatively cognitive and humanlike behaviours are not robust, failing to generalise appropriately. What we term the 'etiological strategy' undercuts attributions of mentality by challenging naive causal explanations of LLM behaviours, offering alternative causal accounts that weaken the case for mental state attributions. While both strategies offer powerful challenges to full-blown inflationism, we find that neither strategy provides a knock-down case against ascriptions of mentality to LLMs simpliciter. With this in mind, we explore a modest form of inflationism that permits ascriptions of mentality to LLMs under certain conditions. Specifically, we argue that folk practice provides a defeasible basis for attributing mental states and capacities to LLMs provided those mental states and capacities can be understood in metaphysically undemanding terms (e.g. knowledge, beliefs and desires), while greater caution is required when attributing metaphysically demanding mental phenomena such as phenomenal consciousness.
- Abstract(参考訳): 多くの人は、Large Language Models (LLMs) に対する解釈、記述、応答を、自分たちと同じような内的メンタルな生活を持っているように感じている。
この現象に対する反応は様々である。
インフレーション主義者は、LDMに対する少なくともいくつかの民間心理学的徴候が保証されていると主張している。
デフレシストは、このような精神的な帰属は、人為的投射がLLMの道徳的地位を誤ったか、あるいは混乱させる可能性があるというリスクに対して、しばしば注意を払っている、と論じている。
我々は、LSMの精神性に対する2つの共通のデフレ的議論を評価することによって、この議論を進める。
私たちが「ロバストネス戦略」と呼ぶのは、LLMが認知的・人間的な行動が堅牢ではなく、適切に一般化できないことを示すことによって、心的存在であると信じていることを正当化することである。
我々が「倫理的戦略」と呼ぶものは、精神状態の帰属を弱める別の因果的説明を提供することによって、LCMの行動の素因的な因果的説明に挑戦することで、精神の帰属を減らし、精神の帰属を減らしている。
どちらの戦略も完全なインフレーションに強力な課題をもたらすが、いずれの戦略もLLMs simpliciterに対する精神的な説明に対するノックダウンのケースを提供していない。
このことを念頭に置いて、特定の条件下でのLSMに対する精神的な記述を許容する、控えめなインフレーション主義の形式を探求する。
具体的には、これらの精神状態と能力は、メタ物理的に不必要な言葉(例えば、知識、信念、欲求)で理解でき、また、現象意識のようなメタ物理的に要求される精神現象に寄与する場合、より注意が必要であると論じる。
関連論文リスト
- Going Whole Hog: A Philosophical Defense of AI Cognition [0.0]
我々は、AI哲学における一般的な方法論に反対し、低レベルの計算の詳細に基づく開始点を拒絶する。
認知状態の全スイートについて論じるために,我々は「ホリスティック・ネットワーク・アセスメント」を採用している。
我々は、人間の概念的スキームを超えた「アリアン」コンテンツを有するLLMの可能性について推測することで結論付ける。
論文 参考訳(メタデータ) (2025-04-18T11:36:25Z) - Can a Hallucinating Model help in Reducing Human "Hallucination"? [2.3633885460047774]
本研究では,大言語モデル(LLMs)が,一般的な論理的落とし穴を検出する上で,平均的な人間をビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
本研究では,LLMを誤認識に対処するための手法を提案し,説得の心理的モデルに基づく。
論文 参考訳(メタデータ) (2024-05-01T20:10:44Z) - GTBench: Uncovering the Strategic Reasoning Limitations of LLMs via Game-Theoretic Evaluations [87.99872683336395]
大規模言語モデル(LLM)は、重要な現実世界のアプリケーションに統合される。
本稿では,LLMの競合環境における推論能力について検討する。
まず,広く認識されている10のタスクを構成する言語駆動型環境であるGTBenchを提案する。
論文 参考訳(メタデータ) (2024-02-19T18:23:36Z) - When Do LLMs Need Retrieval Augmentation? Mitigating LLMs' Overconfidence Helps Retrieval Augmentation [66.01754585188739]
大規模言語モデル(LLM)は、特定の知識を持っていないことを知るのが困難であることが判明した。
Retrieval Augmentation (RA)はLLMの幻覚を緩和するために広く研究されている。
本稿では,LLMの知識境界に対する認識を高めるためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T04:57:19Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Deception Abilities Emerged in Large Language Models [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を備えた人工知能(AI)システムの最前線にある。
本研究は, GPT-4 などの最先端 LLM にそのような戦略が出現したが, 初期の LLM には存在しなかったことを明らかにする。
我々は、最先端のLLMが他のエージェントの誤った信念を理解し、誘導できることを示す一連の実験を行う。
論文 参考訳(メタデータ) (2023-07-31T09:27:01Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。