論文の概要: Psychological and behavioural responses in human-agent vs. human-human interactions: a systematic review and meta-analysis
- arxiv url: http://arxiv.org/abs/2509.21542v1
- Date: Thu, 25 Sep 2025 20:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.987796
- Title: Psychological and behavioural responses in human-agent vs. human-human interactions: a systematic review and meta-analysis
- Title(参考訳): 人間-エージェント対人間-人間の相互作用における心理的・行動的反応 : 体系的レビューとメタ分析
- Authors: Jianan Zhou, Fleur Corbett, Joori Byun, Talya Porat, Nejra van Zalk,
- Abstract要約: インタラクティブな知的エージェントは社会全体で統合されています。
人間のような能力を達成するにも拘わらず、これらのエージェントに対する人間の反応はいまだに理解されていない。
一致した人間-エージェントと人間-人間の対話における心理的・行動的反応を比較検討した最初の体系的合成を行った。
- 参考スコア(独自算出の注目度): 2.3284555894215075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive intelligent agents are being integrated across society. Despite achieving human-like capabilities, humans' responses to these agents remain poorly understood, with research fragmented across disciplines. We conducted a first systematic synthesis comparing a range of psychological and behavioural responses in matched human-agent vs. human-human dyadic interactions. A total of 162 eligible studies (146 contributed to the meta-analysis; 468 effect sizes) were included in the systematic review and meta-analysis, which integrated frequentist and Bayesian approaches. Our results indicate that individuals exhibited less prosocial behaviour and moral engagement when interacting with agents vs. humans. They attributed less agency and responsibility to agents, perceiving them as less competent, likeable, and socially present. In contrast, individuals' social alignment (i.e., alignment or adaptation of internal states and behaviours with partners), trust in partners, personal agency, task performance, and interaction experiences were generally comparable when interacting with agents vs. humans. We observed high effect-size heterogeneity for many subjective responses (i.e., social perceptions of partners, subjective trust, and interaction experiences), suggesting context-dependency of partner effects. By examining the characteristics of studies, participants, partners, interaction scenarios, and response measures, we also identified several moderators shaping partner effects. Overall, functional behaviours and interactive experiences with agents can resemble those with humans, whereas fundamental social attributions and moral/prosocial concerns lag in human-agent interactions. Agents are thus afforded instrumental value on par with humans but lack comparable intrinsic value, providing practical implications for agent design and regulation.
- Abstract(参考訳): インタラクティブな知的エージェントは社会全体で統合されています。
人間のような能力を達成するにも拘わらず、これらのエージェントに対する人間の反応はいまだに理解されておらず、研究は分野によって断片化されている。
一致したヒト-エージェントとヒト-ヒトのダイアド相互作用における心理的・行動的反応を比較検討した最初の体系的合成を行った。
162件の研究(メタアナリシスに146件、効果サイズ468件)が、システマティック・レビューとメタアナリシス(英語版)に含まれ、頻繁派とベイズ的アプローチを統合した。
その結果, エージェント対人間との相互作用において, 個人は社会的行動や道徳的エンゲージメントが低かったことが示唆された。
彼らはエージェントに対する代理と責任を減らし、彼らがより有能で、好意的で、社会的に存在していると認識した。
対照的に、個人の社会的アライメント(内部状態のアライメントやパートナーとの行動適応)、パートナーへの信頼、個人的エージェンシー、タスクパフォーマンス、相互作用体験は、エージェント対人間との相互作用において概ね同等であった。
多くの主観的反応(例えば、パートナーの社会的知覚、主観的信頼、相互作用経験)に対する高効果サイズの不均一性を観察し、パートナー効果の文脈依存性を示唆した。
また, 参加者, パートナー, インタラクションシナリオ, 応答尺度の特徴を調べた結果, パートナー効果を形作るモデレーターがいくつか見出された。
全体として、機能的行動やエージェントとの対話的な体験は、人間とエージェントの対話に類似するが、基本的な社会的帰属や道徳的・社会的関心は、人間とエージェントの相互作用に遅れがある。
したがって、エージェントは人間と同等の道具的価値が与えられるが、本質的価値に匹敵するものがなく、エージェントの設計と規制に実践的な意味を与える。
関連論文リスト
- When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Warmth and competence in human-agent cooperation [0.7237068561453082]
近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
われわれは2人プレイのソーシャルジレンマであるCoinsで深層強化学習エージェントを訓練している。
参加者の温かさと能力に対する認識は、異なるエージェントに対する表現された嗜好を予測する。
論文 参考訳(メタデータ) (2022-01-31T18:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。