論文の概要: Increasing happiness through conversations with artificial intelligence
- arxiv url: http://arxiv.org/abs/2504.02091v1
- Date: Wed, 02 Apr 2025 19:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:10.728952
- Title: Increasing happiness through conversations with artificial intelligence
- Title(参考訳): 人工知能との対話による幸福感の向上
- Authors: Joseph Heffner, Chongyu Qin, Martin Chadwick, Chris Knutsen, Christopher Summerfield, Zeb Kurth-Nelson, Robb B. Rutledge,
- Abstract要約: その結果,AI会話後の幸福度はジャーナリング後の幸福度よりも高かった。
ネガティブなトピックについて議論するとき、参加者は徐々にAIの肯定的な感情と一致した。
計算モデルを用いて、会話の途中でこれらの感情予測誤差の履歴が会話後の幸福度を高めることを予測している。
- 参考スコア(独自算出の注目度): 4.225027291187279
- License:
- Abstract: Chatbots powered by artificial intelligence (AI) have rapidly become a significant part of everyday life, with over a quarter of American adults using them multiple times per week. While these tools offer potential benefits and risks, a fundamental question remains largely unexplored: How do conversations with AI influence subjective well-being? To investigate this, we conducted a study where participants either engaged in conversations with an AI chatbot (N = 334) or wrote journal entires (N = 193) on the same randomly assigned topics and reported their momentary happiness afterward. We found that happiness after AI chatbot conversations was higher than after journaling, particularly when discussing negative topics such as depression or guilt. Leveraging large language models for sentiment analysis, we found that the AI chatbot mirrored participants' sentiment while maintaining a consistent positivity bias. When discussing negative topics, participants gradually aligned their sentiment with the AI's positivity, leading to an overall increase in happiness. We hypothesized that the history of participants' sentiment prediction errors, the difference between expected and actual emotional tone when responding to the AI chatbot, might explain this happiness effect. Using computational modeling, we find the history of these sentiment prediction errors over the course of a conversation predicts greater post-conversation happiness, demonstrating a central role of emotional expectations during dialogue. Our findings underscore the effect that AI interactions can have on human well-being.
- Abstract(参考訳): 人工知能(AI)を利用したチャットボットは、急速に日常生活の重要な部分となり、アメリカの成人の4分の1以上が毎週何回も利用している。
これらのツールは潜在的な利益とリスクを提供するが、根本的な疑問はほとんど未解決のままである。
そこで我々は,AIチャットボット (N = 334) やジャーナル全体 (N = 193) と,同じランダムに割り当てられた話題について会話し,その後,その瞬間的幸福を報告した。
AIチャットボット会話の幸福度はジャーナリングの幸福度よりも高く,特に抑うつや罪悪感といったネガティブな話題を議論する場合の方が高かった。
感情分析のために大きな言語モデルを活用することで、AIチャットボットは、一貫した肯定バイアスを維持しながら参加者の感情を反映することがわかった。
ネガティブなトピックについて議論するとき、参加者は徐々にAIの肯定的な感情と一致し、全体としての幸福感の増大につながった。
参加者の感情予測誤差の履歴,AIチャットボットに応答する際の期待と実際の感情のトーンの違いは,この幸福効果を説明するかもしれないと仮定した。
計算モデルを用いて,会話中の感情予測誤差の履歴から会話後の幸福度を予測し,対話中の感情予測の中心的役割を示す。
我々の研究結果は、AIの相互作用が人間の健康に与える影響を裏付けている。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは人間の会話相手よりも共感的でないと認識された。
以上の結果から,会話の質形成における共感の重要性が示唆された。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Journalists, Emotions, and the Introduction of Generative AI Chatbots: A Large-Scale Analysis of Tweets Before and After the Launch of ChatGPT [0.0]
本研究では、ジャーナリストのChatGPT発売時の感情反応について検討した。
米国の大手ニュースメディアのジャーナリストのツイート100万件近くを分析して、感情のトーンと感情の変化を追跡した。
私たちは、肯定的な感情の増加と、ローンチ後のより好ましいトーンを発見し、AIの可能性に対する最初の楽観性を示唆した。
論文 参考訳(メタデータ) (2024-09-13T12:09:20Z) - Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews [23.443181324643017]
本研究では,AIが人間の虚偽記憶に与える影響について検討する。
犯罪目撃者のインタビューをシミュレートし、人間とAIのインタラクションにおける示唆的質問を通じて、偽の記憶誘導を探索する。
論文 参考訳(メタデータ) (2024-08-08T04:55:03Z) - Commonsense Reasoning for Conversational AI: A Survey of the State of
the Art [0.76146285961466]
論文では、関連するトレーニングデータセットをリストアップし、会話型AIにコモンセンスを含めるための主要なアプローチについて説明する。
本稿では,BlenderBot3とLaMDAの2つの最先端オープンダイアログモデルの限られたコモンセンス能力について予備観測を行った。
論文 参考訳(メタデータ) (2023-02-15T19:55:57Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Artificial intelligence in communication impacts language and social
relationships [11.212791488179757]
我々は、最も普及しているAIアプリケーションのうちの1つ、アルゴリズム的な応答提案(smart response)の社会的結果を研究する。
提案手法は, コミュニケーション効率の向上, 肯定的な感情言語の利用, コミュニケーションパートナーによる肯定的な評価を行う。
しかし、AIの否定的含意に関する一般的な仮定と一致し、アルゴリズム的応答を疑う場合、人々はより否定的に評価される。
論文 参考訳(メタデータ) (2021-02-10T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。