論文の概要: How Human is AI? Examining the Impact of Emotional Prompts on Artificial and Human and Responsiveness
- arxiv url: http://arxiv.org/abs/2601.05104v1
- Date: Thu, 08 Jan 2026 16:50:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.286133
- Title: How Human is AI? Examining the Impact of Emotional Prompts on Artificial and Human and Responsiveness
- Title(参考訳): 人間はAIか? 感情のプロンプトが人的・人間的・責任に与える影響を考察
- Authors: Florence Bernays, Marco Henriques Pereira, Jochen Menges,
- Abstract要約: 本研究では、人間とAIの相互作用の感情的トーンが、ChatGPTと人間の行動をどのように形成するかを検討する。
参加者に対して,ChatGPTと共同作業しながら,公開応答の執筆と倫理ジレンマへの対処という2つの課題について,感情表現を依頼した。
その結果、参加者が中立的な態度を維持している相互作用と比較して、ChatGPTは参加者が賞賛すると、回答がより良くなることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research examines how the emotional tone of human-AI interactions shapes ChatGPT and human behavior. In a between-subject experiment, we asked participants to express a specific emotion while working with ChatGPT (GPT-4.0) on two tasks, including writing a public response and addressing an ethical dilemma. We found that compared to interactions where participants maintained a neutral tone, ChatGPT showed greater improvement in its answers when participants praised ChatGPT for its responses. Expressing anger towards ChatGPT also led to a higher albeit smaller improvement relative to the neutral condition, whereas blaming ChatGPT did not improve its answers. When addressing an ethical dilemma, ChatGPT prioritized corporate interests less when participants expressed anger towards it, while blaming increases its emphasis on protecting the public interest. Additionally, we found that people used more negative, hostile, and disappointing expressions in human-human communication after interactions during which participants blamed rather than praised for their responses. Together, our findings demonstrate that the emotional tone people apply in human-AI interactions not only shape ChatGPT's outputs but also carry over into subsequent human-human communication.
- Abstract(参考訳): 本研究では、人間とAIの相互作用の感情的トーンが、ChatGPTと人間の行動をどのように形成するかを検討する。
対象間の実験では,ChatGPT(GPT-4.0)を用いて公衆の反応を書き,倫理的ジレンマに対処する2つの課題について,参加者に特定の感情を表現するよう依頼した。
その結果,ChatGPTは中性トーンを維持している相互作用に比べ,ChatGPTの反応を称賛すると,回答の質が向上することがわかった。
ChatGPTに対する怒りを表わすことは、中立状態に対して改善がより小さい一方で、ChatGPTを非難しても回答は改善しなかった。
倫理的ジレンマに対処する際、ChatGPTは、参加者がそれに対して怒りを表明するときの企業利益の優先順位を低くした。
また, 相手の反応を賞賛するよりも, 相手の反応を非難する場面で, 人・人間のコミュニケーションにおいて, 否定的, 敵対的, 失望的な表現を多く用いた。
本研究は,ChatGPTのアウトプットを形作るだけでなく,その後の人間と人間のコミュニケーションにも受け継がれ,人間とAIの相互作用に感情的なトーンが適用されることを示した。
関連論文リスト
- Investigating Affective Use and Emotional Well-being on ChatGPT [32.797983866308755]
本稿では,ChatGPTとのインタラクションがユーザの感情的幸福感,行動,経験に与える影響について検討する。
情緒的手がかりとして300万以上の会話を分析し,ChatGPTに対する認識から4,000人以上のユーザを調査した。
施設審査委員会(IRB)が承認したランダム化制御試験(RCT)を28日間に1,000人近い参加者で実施する。
論文 参考訳(メタデータ) (2025-04-04T19:22:10Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Exploring ChatGPT's Empathic Abilities [0.138120109831448]
本研究は, GPT-3.5に基づくChatGPTが情緒的反応および情緒的表情を示す程度について検討した。
91.7%の症例では、ChatGPTは感情を正しく識別し、適切な回答を得られる。
会話では、ChatGPTは70.7%のケースで平行感情で反応した。
論文 参考訳(メタデータ) (2023-08-07T12:23:07Z) - Deceptive AI Ecosystems: The Case of ChatGPT [8.128368463580715]
ChatGPTは人間のような反応を生成する能力で人気を博している。
本稿では,ChatGPTが社会的プレッシャーが開発・展開に影響を与える現実世界でどのように機能するかを検討する。
本稿では,ChatGPTの擬人的相互作用から生じる倫理的課題について考察する。
論文 参考訳(メタデータ) (2023-06-18T10:36:19Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。