論文の概要: Hallucinating with AI: AI Psychosis as Distributed Delusions
- arxiv url: http://arxiv.org/abs/2508.19588v1
- Date: Wed, 27 Aug 2025 05:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.506716
- Title: Hallucinating with AI: AI Psychosis as Distributed Delusions
- Title(参考訳): AIによる幻覚 - 分散型妄想としてのAI心理学
- Authors: Lucy Osler,
- Abstract要約: ChatGPT、Claude、Gemini、DeepSeek、Grokといった生成AIシステムは、誤った出力を生成する。
一般的な用語では、これらはAI幻覚と呼ばれる。
私は、分散認知理論のレンズを通して見れば、不正確な信念、歪んだ記憶、自己物語、妄想的思考が現れる方法がよりよくわかると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is much discussion of the false outputs that generative AI systems such as ChatGPT, Claude, Gemini, DeepSeek, and Grok create. In popular terminology, these have been dubbed AI hallucinations. However, deeming these AI outputs hallucinations is controversial, with many claiming this is a metaphorical misnomer. Nevertheless, in this paper, I argue that when viewed through the lens of distributed cognition theory, we can better see the dynamic and troubling ways in which inaccurate beliefs, distorted memories and self-narratives, and delusional thinking can emerge through human-AI interactions; examples of which are popularly being referred to as cases of AI psychosis. In such cases, I suggest we move away from thinking about how an AI system might hallucinate at us, by generating false outputs, to thinking about how, when we routinely rely on generative AI to help us think, remember, and narrate, we can come to hallucinate with AI. This can happen when AI introduces errors into the distributed cognitive process, but it can also happen when AI sustains, affirms, and elaborates on our own delusional thinking and self-narratives, such as in the case of Jaswant Singh Chail. I also examine how the conversational style of chatbots can lead them to play a dual-function, both as a cognitive artefact and a quasi-Other with whom we co-construct our beliefs, narratives, and our realities. It is this dual function, I suggest, that makes generative AI an unusual, and particularly seductive, case of distributed cognition.
- Abstract(参考訳): ChatGPT、Claude、Gemini、DeepSeek、Grokといった生成AIシステムが生成する偽のアウトプットについては、多くの議論がある。
一般的な用語では、これらはAI幻覚と呼ばれる。
しかし、これらのAI出力を幻覚とみなすことは議論の余地があり、多くの人はこれが比喩的な誤認であると主張している。
しかし, 分散認知理論のレンズを通してみると, 不正確な信念, 歪んだ記憶, 自己物語, 妄想的思考が人間とAIの相互作用を通じて生み出すことのできる, ダイナミックで厄介な方法がよく見受けられる。
このようなケースでは、AIシステムが、誤ったアウトプットを生成することによって、私たちを幻覚させる方法を考えることから、生成AIを日常的に頼りに考え、記憶し、ナレーションするのを助けるとき、どのようにしてAIに幻覚を与えるかを考えることを提案します。
これはAIが分散認知プロセスにエラーを導入した時に起こりうるが、Jaswant Singh Chailのように、AIが私たちの妄想的思考や自己物語を持続し、肯定し、詳細化する際にも起こりうる。
また、チャットボットの会話スタイルが、認知的アーティファクトと、私たちの信念、物語、現実を共同構築する準他との両方で、どのように二重機能として機能するかについても検討します。
私が思うに、この二重機能は、生成的AIを異常な、特に誘惑的、分散認知のケースにする。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Social Evolution of Published Text and The Emergence of Artificial Intelligence Through Large Language Models and The Problem of Toxicity and Bias [0.0]
大規模言語モデルにおけるAIの出現に繋がった,AIとディープラーニングの急速な発展の鳥眼図を提供する。
我々は、過度に楽観的な人々への警告として存在する毒性、偏見、記憶、梅毒、論理的矛盾を指摘する。
論文 参考訳(メタデータ) (2024-02-11T11:23:28Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Epistemic considerations when AI answers questions for us [0.0]
我々は、我々の質問に答え、アウトプットを判断するためにAIに不注意に依存することは、グレースの「品質の最大」と「レモインの法的な「無実の最高」に違反していると主張している。
AIが生成し、AIが評価したコンテンツのアウトプットと結果に重点を置いていないのは、適切なトリビュートを支払うことを除けば、人の思考プロセスに従うことの要求である。
論文 参考訳(メタデータ) (2023-04-23T08:26:42Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Crossing the Tepper Line: An Emerging Ontology for Describing the
Dynamic Sociality of Embodied AI [0.9176056742068814]
AIがいかに「社会的に具現化されたAI」として現れるかを示す。
私たちはこれを、人間によって社会的かつエージェント的と認識された場合、対話的なコンテキスト内でaiを「循環的に」実施する状態と定義します。
論文 参考訳(メタデータ) (2021-03-15T00:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。