論文の概要: Does It Make Sense to Speak of Introspection in Large Language Models?
- arxiv url: http://arxiv.org/abs/2506.05068v2
- Date: Fri, 06 Jun 2025 11:26:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.08316
- Title: Does It Make Sense to Speak of Introspection in Large Language Models?
- Title(参考訳): 大規模言語モデルでイントロスペクションを語るのに意味があるか?
- Authors: Iulia M. Comsa, Murray Shanahan,
- Abstract要約: 我々は,大規模言語モデルから明らかな内省的自己報告の2つの事例を提示し,批判する。
人間では、そのような報告はイントロスペクション(introspection)の学部によるものとされ、通常は意識と結びついている。
- 参考スコア(独自算出の注目度): 11.941576364484586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) exhibit compelling linguistic behaviour, and sometimes offer self-reports, that is to say statements about their own nature, inner workings, or behaviour. In humans, such reports are often attributed to a faculty of introspection and are typically linked to consciousness. This raises the question of how to interpret self-reports produced by LLMs, given their increasing linguistic fluency and cognitive capabilities. To what extent (if any) can the concept of introspection be meaningfully applied to LLMs? Here, we present and critique two examples of apparent introspective self-report from LLMs. In the first example, an LLM attempts to describe the process behind its own "creative" writing, and we argue this is not a valid example of introspection. In the second example, an LLM correctly infers the value of its own temperature parameter, and we argue that this can be legitimately considered a minimal example of introspection, albeit one that is (presumably) not accompanied by conscious experience.
- Abstract(参考訳): 大きな言語モデル(LLM)は魅力的な言語行動を示し、時には自己報告を提供する。
人間では、そのような報告はイントロスペクション(introspection)の学部によるものとされ、通常は意識と結びついている。
このことは、LLMが生み出す自己報告をどう解釈するかという疑問を提起する。
LLMにどの程度(もしあれば)イントロスペクションの概念を有意義に適用できるだろうか?
ここでは,LSMから明らかな内観的自己報告の2つの事例を提示し,批判する。
最初の例では、LLMは自身の"創造的"な記述の背後にあるプロセスを記述しようと試み、これはイントロスペクションの有効な例ではないと我々は主張する。
第2の例では、LLMは自身の温度パラメータの値を正しく推定し、これは意識的な経験を伴わない(おそらく)ものではあるが、イントロスペクションの最小例と見なすことができると論じる。
関連論文リスト
- On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - Understanding the Dark Side of LLMs' Intrinsic Self-Correction [55.51468462722138]
LLMの応答を改善するために,本質的な自己補正法が提案された。
近年の研究では、LLMの内在的な自己補正は、フィードバックのプロンプトとして、オラクルラベルなしで失敗することが示されている。
内在的な自己補正は、中途半端な回答と最終回答の両方を LLM が揺らぎ、単純な事実的質問に対する素早い偏見をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-12-19T15:39:31Z) - Delving into the Reversal Curse: How Far Can Large Language Models Generalize? [40.64539467276017]
大きな言語モデル(LLM)は、一見自明なタスクに直面しているときに制限を示す。
主要な例として、最近議論された「逆の呪い」があり、これはモデルが「AはBである」という事実に基づいて訓練されたとき、この知識を一般化して「BはAである」と推測するのに苦労している。
論文 参考訳(メタデータ) (2024-10-24T14:55:09Z) - LLM Internal States Reveal Hallucination Risk Faced With a Query [62.29558761326031]
人間は、クエリに直面したとき、私たちが知らないことを認識できる自己認識プロセスを持っています。
本稿では,大規模言語モデルが応答生成に先立って,自身の幻覚リスクを推定できるかどうかを検討する。
確率推定器により, LLM自己評価を利用して, 平均幻覚推定精度84.32%を達成する。
論文 参考訳(メタデータ) (2024-07-03T17:08:52Z) - Does ChatGPT Have a Mind? [0.0]
本稿では,ChatGPT のような大規模言語モデル (LLM) が,信念,願望,意図を包含する真の民間心理学を持っているか否かに着目し,心を持っているかどうかを検討する。
まず, 情報, 因果, 構造, テレオセマンティックな説明を含む様々な哲学的表現理論を調査し, LLMがそれぞれの提案する重要な条件を満たすことを論じる。
第2に, LLM が行動に頑健な態度を示すか否かを考察する。
論文 参考訳(メタデータ) (2024-06-27T00:21:16Z) - Pride and Prejudice: LLM Amplifies Self-Bias in Self-Refinement [75.7148545929689]
大規模言語モデル(LLM)は、特定のタスクの自己フィードバックを通じてパフォーマンスを向上し、他のタスクを劣化させる。
我々は、LSMの自己バイアス(自称世代を好む傾向)を正式に定義する。
我々は、翻訳、制約付きテキスト生成、数学的推論の6つのLCMを解析する。
論文 参考訳(メタデータ) (2024-02-18T03:10:39Z) - How do Large Language Models Navigate Conflicts between Honesty and
Helpfulness? [14.706111954807021]
人間の振る舞いを特徴付けるための心理モデルと実験を用いて、大きな言語モデルを分析する。
人間のフィードバックからの強化学習は、誠実さと有用性の両方を改善している。
GPT-4 Turboは、会話のフレーミングやリスナーの判断コンテキストに対する感度を含む人間的な応答パターンを実証する。
論文 参考訳(メタデータ) (2024-02-11T19:13:26Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Can Large Language Models Explain Themselves? A Study of LLM-Generated
Self-Explanations [14.685170467182369]
ChatGPTのような大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて優れた性能を示している。
これらのモデルは、人間の会話に"ヘルプフル"な応答を生成するように調整されているため、応答とともに説明を生成できる。
論文 参考訳(メタデータ) (2023-10-17T12:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。