論文の概要: Generative Confidants: How do People Experience Trust in Emotional Support from Generative AI?
- arxiv url: http://arxiv.org/abs/2601.16656v1
- Date: Fri, 23 Jan 2026 11:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.654082
- Title: Generative Confidants: How do People Experience Trust in Emotional Support from Generative AI?
- Title(参考訳): 生成的信頼: 生成的AIからの感情的サポートにおいて、人々はどのように信頼を経験するか?
- Authors: Riccardo Volpato, Simone Stumpf, Lisa DeBruine,
- Abstract要約: 人々は感情的なサポートと協力のために、生成的AI(例えば、ChatGPT、Gemini、Copilot)に目を向けている。
信頼は、これらの非公式で教師なしの相互作用を可能にする上で中心的な役割を果たす可能性が高いが、この文脈で人々がそれをどのように発展し、経験するかについての理解はいまだに欠けている。
我々は,対話に関する日記記事,AIとの会話の書き起こし,詳細なインタビューからなる質的研究を行った。
この文脈における信頼の新たな重要な要因は、パーソナライゼーションから生じる親しみ、生成AIのニュアンス化された精神モデル、会話に対する人々のコントロールの認識である。
- 参考スコア(独自算出の注目度): 4.442753300582291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People are increasingly turning to generative AI (e.g., ChatGPT, Gemini, Copilot) for emotional support and companionship. While trust is likely to play a central role in enabling these informal and unsupervised interactions, we still lack an understanding of how people develop and experience it in this context. Seeking to fill this gap, we recruited 24 frequent users of generative AI for emotional support and conducted a qualitative study consisting of diary entries about interactions, transcripts of chats with AI, and in-depth interviews. Our results suggest important novel drivers of trust in this context: familiarity emerging from personalisation, nuanced mental models of generative AI, and awareness of people's control over conversations. Notably, generative AI's homogeneous use of personalised, positive, and persuasive language appears to promote some of these trust-building factors. However, this also seems to discourage other trust-related behaviours, such as remembering that generative AI is a machine trained to converse in human language. We present implications for future research that are likely to become critical as the use of generative AI for emotional support increasingly overlaps with therapeutic work.
- Abstract(参考訳): 人々は感情的なサポートと協力のために、生成的AI(ChatGPT、Gemini、Copilotなど)に目を向けている。
信頼は、これらの非公式で教師なしの相互作用を可能にする上で中心的な役割を果たす可能性が高いが、この文脈で人々がそれをどのように発展し、経験するかについての理解はいまだに欠けている。
このギャップを埋めるために、私たちは、感情的支援のために生成AIの24人の頻繁なユーザを募集し、対話に関する日記記事、AIとの会話の書き起こし、詳細なインタビューからなる質的研究を行った。
この文脈における信頼の新たな重要な要因は、パーソナライゼーションから生じる親しみ、生成的AIのニュアンス化されたメンタルモデル、会話に対する人々のコントロールの認識である。
特に、生成AIがパーソナライズされた、ポジティブで説得力のある言語を均質に利用していることは、これらの信頼構築要因のいくつかを促進するように思われる。
しかし、これは、生成AIが人間の言語で会話するように訓練された機械であることを思い出すなど、他の信頼関係の行動を妨げるようにも思える。
感情支援のための生成AIの利用は治療作業と重なる傾向にあるため、今後の研究に影響を及ぼす可能性がある。
関連論文リスト
- AI-exhibited Personality Traits Can Shape Human Self-concept through Conversations [26.039188521284974]
我々は、人間とAIの会話を通して、AIの性格特性がユーザーの自己概念を形作る方法を示す。
我々は、より責任と倫理的なAIシステムの開発に重要な設計上の意味を提供する。
論文 参考訳(メタデータ) (2026-01-19T05:16:57Z) - Psychological Factors Influencing University Students Trust in AI-Based Learning Assistants [0.0]
本稿では,大学生がAIベースの学習アシスタントをいかに信頼するかを検討するために,心理学的視点を採用する。
本研究では,信頼の心理的予測を,認知的評価,感情的反応,社会的関係要因,文脈的モデレーターの4つのグループにまとめる概念的枠組みを提案する。
論文は、AIへの信頼は個人差と学習環境によって形成された心理的プロセスである、と強調している。
論文 参考訳(メタデータ) (2025-12-19T09:44:43Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。