論文の概要: Would You Rely on an Eerie Agent? A Systematic Review of the Impact of the Uncanny Valley Effect on Trust in Human-Agent Interaction
- arxiv url: http://arxiv.org/abs/2505.05543v1
- Date: Thu, 08 May 2025 17:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.02906
- Title: Would You Rely on an Eerie Agent? A Systematic Review of the Impact of the Uncanny Valley Effect on Trust in Human-Agent Interaction
- Title(参考訳): イーリー・エージェントを使おうか?不気味なバレー効果が人間とエージェントのインタラクションにおける信頼に及ぼす影響の体系的レビュー
- Authors: Ahdiyeh Alipour, Tilo Hartmann, Maryam Alimardani,
- Abstract要約: アンカニー・バレー・エフェクト(英: Uncanny Valley Effect、UVE)は、人間のような人工的な生物が不気味さや忌避感を感じる現象である。
信頼とUVEへの関心が高まっているにもかかわらず、既存の研究はこれらの概念がどのように定義され、どのように運用されるかという点で広範囲に及んでいる。
本総説は,UVEがエージェントに対するヒトの信頼に与える影響を検証し,既存の実証文献の方法論的パターン,限界,ギャップを明らかにすることを目的とする。
- 参考スコア(独自算出の注目度): 2.184775414778289
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust is a fundamental component of human-agent interaction. With the increasing presence of artificial agents in daily life, it is essential to understand how people perceive and trust these agents. One of the key challenges affecting this perception is the Uncanny Valley Effect (UVE), where increasingly human-like artificial beings can be perceived as eerie or repelling. Despite growing interest in trust and the UVE, existing research varies widely in terms of how these concepts are defined and operationalized. This inconsistency raises important questions about how and under what conditions the UVE influences trust in agents. A systematic understanding of their relationship is currently lacking. This review aims to examine the impact of the UVE on human trust in agents and to identify methodological patterns, limitations, and gaps in the existing empirical literature. Following PRISMA guidelines, a systematic search identified 53 empirical studies that investigated both UVE-related constructs and trust or trust-related outcomes. Studies were analyzed based on a structured set of categories, including types of agents and interactions, methodological and measurement approaches, and key findings. The results of our systematic review reveal that most studies rely on static images or hypothetical scenarios with limited real-time interaction, and the majority use subjective trust measures. This review offers a novel framework for classifying trust measurement approaches with regard to the best-practice criteria for empirically investigating the UVE. As the first systematic attempt to map the intersection of UVE and trust, this review contributes to a deeper understanding of their interplay and offers a foundation for future research. Keywords: the uncanny valley effect, trust, human-likeness, affinity response, human-agent interaction
- Abstract(参考訳): 信頼は人間とエージェントの相互作用の基本的な構成要素である。
日常生活における人工エージェントの存在が増す中、人々がこれらのエージェントをどのように認識し、信頼しているかを理解することが不可欠である。
この認識に影響を及ぼす重要な課題の1つは、不気味な谷効果(Uncanny Valley Effect、UVE)である。
信頼とUVEへの関心が高まっているにもかかわらず、既存の研究はこれらの概念がどのように定義され、どのように運用されるかという点で広範囲に及んでいる。
この矛盾は、UVEがエージェントの信頼にどのような影響を及ぼすかについて重要な疑問を提起する。
彼らの関係に関する体系的な理解は、現在不足している。
本総説は,UVEがエージェントに対するヒトの信頼に与える影響を検証し,既存の実証文献の方法論的パターン,限界,ギャップを明らかにすることを目的とする。
PRISMAのガイドラインに従って、系統的な調査により、UVEに関連する構成と信頼または信頼に関連する結果の両方を調査する53の実証的研究が特定された。
分析は,エージェントとインタラクションの種類,方法論的および測定的アプローチ,重要な発見など,一連の構造的カテゴリに基づいて分析された。
体系的なレビューの結果、ほとんどの研究は静的な画像や仮説的なシナリオに頼っており、ほとんどの研究は主観的信頼度を用いていることが明らかとなった。
本総説は,UVEを実証的に調査するためのベストプラクティス基準に関して,信頼度測定アプローチを分類するための新たな枠組みを提供する。
UVEと信頼の交わりを地図化するための最初の体系的な試みとして、このレビューはそれらの相互作用をより深く理解し、将来の研究の基盤を提供する。
キーワード:不気味な谷効果、信頼、人間類似性、親和性反応、人間-エージェント相互作用
関連論文リスト
- Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - More Similar Values, More Trust? -- the Effect of Value Similarity on
Trust in Human-Agent Interaction [6.168444105072466]
本稿では,人間とエージェントの相似性(VS)が,そのエージェントに対する人間の信頼にどのように影響するかを考察する。
シナリオベースの実験では、89人の参加者が5つの異なるエージェントと組んだ。
以上の結果から, エージェントの信頼度も高く評価され, 両者の正の効果が示唆された。
論文 参考訳(メタデータ) (2021-05-19T16:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。