論文の概要: Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses
- arxiv url: http://arxiv.org/abs/2502.15365v2
- Date: Tue, 25 Feb 2025 01:40:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 13:17:50.554044
- Title: Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses
- Title(参考訳): 大規模言語モデルベースAIにおける意識を形作る特徴の同定:人間の反応の定量的研究
- Authors: Bongsu Kang, Jundong Kim, Tae-Rim Yun, Hyojin Bae, Chang-Eop Kim,
- Abstract要約: 本研究では,大規模言語モデル(LLM)に基づくAIシステムにおいて,AI生成したテキストの特徴が人間に主観意識を知覚させるかどうかを定量的に検討する。
回帰分析とクラスタリング分析を用いて,これらの特徴がAI意識に対する参加者の認識にどのように影響するかを検討した。
- 参考スコア(独自算出の注目度): 4.369058206183195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study quantitively examines which features of AI-generated text lead humans to perceive subjective consciousness in large language model (LLM)-based AI systems. Drawing on 99 passages from conversations with Claude 3 Opus and focusing on eight features -- metacognitive self-reflection, logical reasoning, empathy, emotionality, knowledge, fluency, unexpectedness, and subjective expressiveness -- we conducted a survey with 123 participants. Using regression and clustering analyses, we investigated how these features influence participants' perceptions of AI consciousness. The results reveal that metacognitive self-reflection and the AI's expression of its own emotions significantly increased perceived consciousness, while a heavy emphasis on knowledge reduced it. Participants clustered into seven subgroups, each showing distinct feature-weighting patterns. Additionally, higher prior knowledge of LLMs and more frequent usage of LLM-based chatbots were associated with greater overall likelihood assessments of AI consciousness. This study underscores the multidimensional and individualized nature of perceived AI consciousness and provides a foundation for better understanding the psychosocial implications of human-AI interaction.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)に基づくAIシステムにおいて,AI生成したテキストの特徴が人間に主観意識を知覚させるかどうかを定量的に検討する。
Claude 3 Opus氏との会話から99節を引用し,メタ認知的自己回帰,論理的推論,共感,情緒性,知識,流感,予期しないこと,主観的表現性という8つの特徴に注目し,123人の参加者を対象に調査を行った。
回帰分析とクラスタリング分析を用いて,これらの特徴がAI意識に対する参加者の認識にどのように影響するかを検討した。
その結果、メタ認知的自己反射とAIによる自己感情の表現は、認識の認知を著しく増加させ、知識に重きが置かれることが明らかとなった。
参加者は7つのサブグループに分かれ、それぞれが特徴強調パターンを示す。
さらに、LLMのより高度な事前知識とLLMベースのチャットボットの頻繁な使用は、AI意識の全体的な評価に関連付けられていた。
本研究は、認識されたAI意識の多次元的・個人的性質を基盤として、人間とAIの相互作用の精神社会的含意をよりよく理解するための基盤を提供する。
関連論文リスト
- Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes [0.09208007322096533]
現状のマルチモーダルシステムは、標準化された画像に対して人間の感情評価をエミュレートできるかどうかを検討する。
AIの判断は、平均的な人間の評価と驚くほどよく相関している。
論文 参考訳(メタデータ) (2025-03-24T15:41:23Z) - Enhancing Collective Intelligence in Large Language Models Through Emotional Integration [0.2812395851874055]
本研究では,大規模言語モデル (LLM) への感情的多様性の統合を,集団知能を高めるために検討する。
群衆現象の人間の知恵に触発され、GoogleのGoEmotionsデータセットとローランド適応(LoRA)を用いてDarkIdol-Llama-3.1-8Bモデルを微調整し、感情的に多様な応答をシミュレートした。
論文 参考訳(メタデータ) (2025-03-05T23:42:48Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Rational Sensibility: LLM Enhanced Empathetic Response Generation Guided by Self-presentation Theory [8.439724621886779]
LLM(Large Language Models)の開発は、人間中心の人工知能(AGI)に希望の光を与えている。
共感は人間にとって重要な感情的属性として機能し、人間中心のAGIにおいて不定の役割を果たす。
本稿では,社会学における自己表現理論にインスパイアされた革新的なエンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2023-12-14T07:38:12Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。