論文の概要: The Impact of a Chatbot's Ephemerality-Framing on Self-Disclosure Perceptions
- arxiv url: http://arxiv.org/abs/2505.20464v1
- Date: Mon, 26 May 2025 19:00:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.262935
- Title: The Impact of a Chatbot's Ephemerality-Framing on Self-Disclosure Perceptions
- Title(参考訳): チャットボットの短命化が自己開示知覚に及ぼす影響
- Authors: Samuel Rhys Cox, Rune Møberg Jacobsen, Niels van Berkel,
- Abstract要約: 本研究では,チャットボットのユーザとの関係が自己開示にどのように影響するかを検討した。
私たちはFamiliarとStrangerを比較した。
最初のチャットセッションで感情開示が求められたとき、ストレンジャー条件の参加者はより快適な自己開示を感じた。
しかし,まずFactual-disclosureを求めると,これらの違いはFamiliar-condition 参加者の間でより楽しむことに置き換わった。
- 参考スコア(独自算出の注目度): 17.836384420199316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-disclosure, the sharing of one's thoughts and feelings, is affected by the perceived relationship between individuals. While chatbots are increasingly used for self-disclosure, the impact of a chatbot's framing on users' self-disclosure remains under-explored. We investigated how a chatbot's description of its relationship with users, particularly in terms of ephemerality, affects self-disclosure. Specifically, we compared a Familiar chatbot, presenting itself as a companion remembering past interactions, with a Stranger chatbot, presenting itself as a new, unacquainted entity in each conversation. In a mixed factorial design, participants engaged with either the Familiar or Stranger chatbot in two sessions across two days, with one conversation focusing on Emotional- and another Factual-disclosure. When Emotional-disclosure was sought in the first chatting session, Stranger-condition participants felt more comfortable self-disclosing. However, when Factual-disclosure was sought first, these differences were replaced by more enjoyment among Familiar-condition participants. Qualitative findings showed Stranger afforded anonymity and reduced judgement, whereas Familiar sometimes felt intrusive unless rapport was built via low-risk Factual-disclosure.
- Abstract(参考訳): 自己開示は、個人の思考と感情の共有であり、個人間の知覚的な関係に影響される。
チャットボットは、ますます自己開示に使われているが、チャットボットのフレーミングがユーザーの自己開示に与える影響は未解明のままである。
本研究では,チャットボットがユーザとの関係について,特に短命性が自己開示に与える影響について検討した。
具体的には、Familiarチャットボットを、過去のインタラクションを記憶する仲間として、Strangerチャットボットと比較し、会話ごとに新しい、未知のエンティティとして提示した。
複合要因設計では、参加者はFamiliarまたはStrangerのチャットボットを2日間にわたって2つのセッションで使用し、1つの会話はEmotionalと別のFactual-disclosureに焦点を当てた。
最初のチャットセッションで感情開示が求められたとき、ストレンジャー条件の参加者はより快適な自己開示を感じた。
しかし,まずFactual-disclosureを求めると,これらの違いはFamiliar-condition 参加者の間でより楽しむことに置き換わった。
定性的な発見は、ストレンジャーが匿名性を持ち、判断を減らしたことを示しているが、ファミリアは、低リスクの事実開示によってラプポートが構築されない限り、しばしば侵入的と感じた。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは人間の会話相手よりも共感的でないと認識された。
以上の結果から,会話の質形成における共感の重要性が示唆された。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews [23.443181324643017]
本研究では,AIが人間の虚偽記憶に与える影響について検討する。
犯罪目撃者のインタビューをシミュレートし、人間とAIのインタラクションにおける示唆的質問を通じて、偽の記憶誘導を探索する。
論文 参考訳(メタデータ) (2024-08-08T04:55:03Z) - Measuring and Controlling Instruction (In)Stability in Language Model Dialogs [72.38330196290119]
System-promptingは、言語モデルチャットボットをカスタマイズするツールで、特定の命令に従うことができる。
本稿では,仮説を検証し,セルフチャットによる命令安定性の評価を行うベンチマークを提案する。
我々は8ラウンドの会話で重要な指示ドリフトを明らかにした。
そこで本研究では,2つの強力なベースラインに対して良好に比較可能なsplit-softmaxという軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T20:10:29Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - Discovering Chatbot's Self-Disclosure's Impact on User Trust, Affinity,
and Recommendation Effectiveness [39.240553429989674]
我々は3つの自己開示レベルを持つソーシャルボットを設計し、小さな講演を行い、人々に適切なレコメンデーションを提供した。
372人のMTurk参加者が、映画と新型コロナウイルスの2つの話題でボットと会話するために、異なる自己開示レベルを持つ4つのグループのうちの1つにランダム化された。
論文 参考訳(メタデータ) (2021-06-03T08:16:25Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。