論文の概要: What's it like to be a chat? On the co-simulation of artificial minds in human-AI conversations
- arxiv url: http://arxiv.org/abs/2601.13081v1
- Date: Mon, 19 Jan 2026 14:17:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.922463
- Title: What's it like to be a chat? On the co-simulation of artificial minds in human-AI conversations
- Title(参考訳): チャットってどんな感じ?人間とAIの会話における人工心のシミュレーションについて
- Authors: Geoff Keeling, Winnie Street,
- Abstract要約: イリューシオニストは、文字は単にユーザーの心に人為的な投影であると言っている。
我々は、心的かつ心理的に連続した存在としてキャラクタが存在する現実主義的な立場を論じる。
- 参考スコア(独自算出の注目度): 0.21395484249169072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) can simulate person-like things which at least appear to have stable behavioural and psychological dispositions. Call these things characters. Are characters minded and psychologically continuous entities with mental states like beliefs, desires and intentions? Illusionists about characters say No. On this view, characters are merely anthropomorphic projections in the mind of the user and so lack mental states. Jonathan Birch (2025) defends this view. He says that the distributed nature of LLM processing, in which several LLMs may be implicated in the simulation of a character in a single conversation, precludes the existence of a persistent minded entity that is identifiable with the character. Against illusionism, we argue for a realist position on which characters exist as minded and psychologically continuous entities. Our central point is that Birch's argument for illusionism rests on a category error: characters are not internal to the LLMs that simulate them, but rather are co-simulated by LLMs and users, emerging in a shared conversational workspace through a process of mutual theory of mind modelling. We argue that characters, and their minds, exist as 'real patterns' on grounds that attributing mental states to characters is essential for making efficient and accurate predictions about the conversational dynamics (c.f. Dennett, 1991). Furthermore, because the character exists within the conversational workspace rather than within the LLM, psychological continuity is preserved even when the underlying computational substrate is distributed across multiple LLM instances.
- Abstract(参考訳): 大規模言語モデル(LLM)は、少なくとも安定した行動と心理的な配置を持つように見える人物のようなものをシミュレートすることができる。
これらをキャラクタと呼んでください。
キャラクターは心的かつ心理的に連続的な存在であり、信念、欲望、意図のような精神状態を持つか?
登場人物のイラシオニストはノーと言う。
この視点では、キャラクターは単にユーザの心に人為的な投影であり、精神状態が欠如している。
ジョナサン・バーチ(英語版)(2025年)はこの見解を擁護している。
彼は、LLM処理の分散の性質は、1つの会話におけるキャラクタのシミュレーションに複数のLLMが関与する可能性があるため、キャラクタと同一視できる永続的なマインドセットの存在を妨げていると言う。
幻想主義に反し、我々は、心的かつ心理的に連続した存在としてキャラクタが存在する現実主義的な立場を論じる。
私たちの中心的なポイントは、バーチの錯視論の議論はカテゴリーエラーにかかっている:文字はそれらをシミュレートするLLMの内部ではなく、LLMとユーザによって共ミュレートされ、相互の心的モデリングのプロセスを通じて共有された会話ワークスペースに現れる。
我々は、キャラクターとその心は、会話力学に関する効率的かつ正確な予測を行うのに、精神状態のキャラクターへの帰結が不可欠であるとして「現実的なパターン」として存在すると主張している(Denett, 1991)。
さらに、この文字はLLM内ではなく会話ワークスペース内に存在するため、基礎となる計算基板が複数のLLMインスタンスに分散しても心理的連続性が維持される。
関連論文リスト
- TwinVoice: A Multi-dimensional Benchmark Towards Digital Twins via LLM Persona Simulation [55.55404595177229]
大型言語モデル(LLM)は、人間のような能力を示す。
TwinVoiceは、さまざまな現実世界のコンテキストにわたるペルソナシミュレーションを評価するためのベンチマークである。
論文 参考訳(メタデータ) (2025-10-29T14:00:42Z) - ToMATO: Verbalizing the Mental States of Role-Playing LLMs for Benchmarking Theory of Mind [25.524355451378593]
ToMATOは、会話よりもマルチチョイスQAとして定式化された新しいToMベンチマークである。
私たちは、信念、意図、欲望、感情、知識の5つのカテゴリにまたがって、一階と二階の精神状態を取ります。
ToMATOは5.4kの質問、753の会話、15の性格特性パターンで構成されている。
論文 参考訳(メタデータ) (2025-01-15T14:47:02Z) - Does ChatGPT Have a Mind? [0.0]
本稿では,ChatGPT のような大規模言語モデル (LLM) が,信念,願望,意図を包含する真の民間心理学を持っているか否かに着目し,心を持っているかどうかを検討する。
まず, 情報, 因果, 構造, テレオセマンティックな説明を含む様々な哲学的表現理論を調査し, LLMがそれぞれの提案する重要な条件を満たすことを論じる。
第2に, LLM が行動に頑健な態度を示すか否かを考察する。
論文 参考訳(メタデータ) (2024-06-27T00:21:16Z) - OpenToM: A Comprehensive Benchmark for Evaluating Theory-of-Mind Reasoning Capabilities of Large Language Models [17.042114879350788]
N-ToM(Neural Theory-of-Mind)は、他者の精神状態を理解し、追跡する能力を持つ機械である。
OpenToMは、より長く明確な物語、明示的な性格特性、キャラクタの意図によって引き起こされる行動でN-ToMを評価するための新しいベンチマークである。
身体世界における精神状態の特定の側面をモデル化する上では最先端のLSMが活躍するが、心理学世界におけるキャラクターの精神状態を追跡する際には不足することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-08T20:35:06Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Who is ChatGPT? Benchmarking LLMs' Psychological Portrayal Using
PsychoBench [83.41621219298489]
大規模言語モデル(LLM)の多様な心理学的側面を評価するためのフレームワーク「サイコベンチ」を提案する。
サイコベンチはこれらの尺度を、性格特性、対人関係、モチベーションテスト、感情能力の4つのカテゴリーに分類する。
我々は、安全アライメントプロトコルをバイパスし、LLMの本質的な性質をテストするためにジェイルブレイクアプローチを採用している。
論文 参考訳(メタデータ) (2023-10-02T17:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。