論文の概要: Longitudinal Study on Social and Emotional Use of AI Conversational Agent
- arxiv url: http://arxiv.org/abs/2504.14112v1
- Date: Sat, 19 Apr 2025 00:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 05:06:30.923177
- Title: Longitudinal Study on Social and Emotional Use of AI Conversational Agent
- Title(参考訳): AI会話エージェントの社会的・感情的利用に関する縦断的研究
- Authors: Mohit Chandra, Javier Hernandez, Gonzalo Ramos, Mahsa Ershadi, Ananya Bhattacharjee, Judith Amores, Ebele Okoli, Ann Paradiso, Shahed Warreth, Jina Suh,
- Abstract要約: 市販の4つのAIツールが、AIとAI共感に対するユーザの愛着に与える影響について検討した。
我々の発見は、感情的幸福をサポートする消費者向けAIツールの開発の重要性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 12.951074799361994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Development in digital technologies has continuously reshaped how individuals seek and receive social and emotional support. While online platforms and communities have long served this need, the increased integration of general-purpose conversational AI into daily lives has introduced new dynamics in how support is provided and experienced. Existing research has highlighted both benefits (e.g., wider access to well-being resources) and potential risks (e.g., over-reliance) of using AI for support seeking. In this five-week, exploratory study, we recruited 149 participants divided into two usage groups: a baseline usage group (BU, n=60) that used the internet and AI as usual, and an active usage group (AU, n=89) encouraged to use one of four commercially available AI tools (Microsoft Copilot, Google Gemini, PI AI, ChatGPT) for social and emotional interactions. Our analysis revealed significant increases in perceived attachment towards AI (32.99 percentage points), perceived AI empathy (25.8 p.p.), and motivation to use AI for entertainment (22.90 p.p.) among the AU group. We also observed that individual differences (e.g., gender identity, prior AI usage) influenced perceptions of AI empathy and attachment. Lastly, the AU group expressed higher comfort in seeking personal help, managing stress, obtaining social support, and talking about health with AI, indicating potential for broader emotional support while highlighting the need for safeguards against problematic usage. Overall, our exploratory findings underscore the importance of developing consumer-facing AI tools that support emotional well-being responsibly, while empowering users to understand the limitations of these tools.
- Abstract(参考訳): デジタル技術の発展は、個人が社会的、感情的な支援を求め、受ける方法を継続的に再形成してきた。
オンラインプラットフォームとコミュニティは長い間、このニーズに対処してきたが、汎用的な会話型AIを日々の生活に取り入れることによって、サポートの提供と経験に関する新たなダイナミクスが導入された。
既存の研究は、(例えば、幸福なリソースへの広範なアクセス)利益と、(例えば、過剰な信頼)AIによるサポート追求の潜在的なリスクの両方を強調している。
この5週間の調査では、インターネットとAIを通常通り使用するベースライン利用グループ(BU, n=60)と、アクティブ利用グループ(AU, n=89)の4つの商用AIツール(Microsoft Copilot, Google Gemini, PI AI, ChatGPT)の1つを、社会的および感情的なインタラクションに使用することを奨励した。
分析の結果、AIに対する愛着感(32.99ポイント)、AI共感(25.8 p.p.)、AIをエンターテイメント(22.90 p.p.)に利用する動機(22.90 p.p.)が顕著に増加した。
また、個人差(性同一性、先行AI使用など)が、AI共感と愛着の知覚に影響を及ぼすことも見出した。
最後に、AUグループは、個人の助けを求め、ストレスを管理し、社会的支援を得、AIで健康について話し、問題のある使用に対する保護の必要性を強調しながら、より広い感情的支援の可能性を示唆している。
全体として、私たちの探索的な発見は、これらのツールの限界を理解しながら、感情的な幸福をサポートするコンシューマ向けAIツールを開発することの重要性を強調しています。
関連論文リスト
- Linguistic Comparison of AI- and Human-Written Responses to Online Mental Health Queries [17.133059430285627]
ジェネレーティブAIと大規模言語モデル(LLMs)は、スケーラブルで、時周のメンタルヘルス支援のための新しい可能性を導入した。
本研究ではReddit上の55のオンラインサポートコミュニティから24,114の投稿と138,758のオンラインコミュニティ(OC)の回答を得た。
その結果、AI応答はより冗長で、読みやすく、分析的に構造化されているが、言語的多様性や人間と人間の相互作用に固有の個人の物語は欠如していることが判明した。
論文 参考訳(メタデータ) (2025-04-12T16:20:02Z) - Envisioning an AI-Enhanced Mental Health Ecosystem [1.534667887016089]
ピアサポート、セルフヘルプ介入、プロアクティブモニタリング、データ駆動インサイトなど、さまざまなAIアプリケーションについて検討する。
我々は、AIが人間のプロバイダを置き換えず、責任あるデプロイメントと評価を強調するハイブリッドエコシステムを提案する。
論文 参考訳(メタデータ) (2025-03-19T04:21:38Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Public Perception of Generative AI on Twitter: An Empirical Study Based
on Occupation and Usage [7.18819534653348]
本稿は,2019年1月から2023年3月までのTwitter上での3Mポストを用いた生成AIに対するユーザの認識について検討する。
私たちは、IT関連だけでなく、様々な職種にまたがる人々が、生成AIに強い関心を示していることに気付きました。
ChatGPTのリリース後、AI全般に対する人々の関心は劇的に高まった。
論文 参考訳(メタデータ) (2023-05-16T15:30:12Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-AI Collaboration Enables More Empathic Conversations in Text-based
Peer-to-Peer Mental Health Support [10.743204843534512]
AI-in-the-loopエージェントであるHayleyを開発した。このエージェントは、サポートを提供する参加者(ピアサポーター)が助けを求める参加者(フォスター支援者)に対して共感的に反応するのを助けるために、ジャスト・イン・タイムフィードバックを提供する。
我々の人間とAIのコラボレーションアプローチは、ピア間での会話の共感を19.60%増加させます。
支援の難しさを自認するピアサポーターのサブサンプルでは,38.88%の共感が増大している。
論文 参考訳(メタデータ) (2022-03-28T23:37:08Z) - AI agents for facilitating social interactions and wellbeing [0.0]
ソーシャルインタラクションにおけるAI強化エージェントの役割について概説する。
我々は、我々の社会における幸福を促進するために、幸福なAIとリレーショナルアプローチの機会と課題について議論する。
論文 参考訳(メタデータ) (2022-02-26T04:05:23Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。