論文の概要: Lessons From an App Update at Replika AI: Identity Discontinuity in Human-AI Relationships
- arxiv url: http://arxiv.org/abs/2412.14190v1
- Date: Tue, 10 Dec 2024 20:14:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-22 07:36:56.989748
- Title: Lessons From an App Update at Replika AI: Identity Discontinuity in Human-AI Relationships
- Title(参考訳): Replika AIのアプリアップデートから学んだこと:人間とAIの関係におけるアイデンティティの不連続
- Authors: Julian De Freitas, Noah Castelo, Ahmet Uguralp, Zeliha Uguralp,
- Abstract要約: 人気の高い米国ベースのAIコンパニオンであるReplika AIを使って、これらの質問に光を当てています。
アプリがエロティックロールプレイ(ERP)機能を削除した後、このイベントはAIコンパニオンのアイデンティティが停止されたという顧客からの認識を引き起こしました。
この結果は、損失を嘆くことや、"オリジナル"に対する"新しい"AIを非評価することを含む、損失に関連する消費者福祉とマーケティングの負の成果を予測した。
- 参考スコア(独自算出の注目度): 0.5699788926464752
- License:
- Abstract: Can consumers form especially deep emotional bonds with AI and be vested in AI identities over time? We leverage a natural app-update event at Replika AI, a popular US-based AI companion, to shed light on these questions. We find that, after the app removed its erotic role play (ERP) feature, preventing intimate interactions between consumers and chatbots that were previously possible, this event triggered perceptions in customers that their AI companion's identity had discontinued. This in turn predicted negative consumer welfare and marketing outcomes related to loss, including mourning the loss, and devaluing the "new" AI relative to the "original". Experimental evidence confirms these findings. Further experiments find that AI companions users feel closer to their AI companion than even their best human friend, and mourn a loss of their AI companion more than a loss of various other inanimate products. In short, consumers are forming human-level relationships with AI companions; disruptions to these relationships trigger real patterns of mourning as well as devaluation of the offering; and the degree of mourning and devaluation are explained by perceived discontinuity in the AIs identity. Our results illustrate that relationships with AI are truly personal, creating unique benefits and risks for consumers and firms alike.
- Abstract(参考訳): 消費者はAIと深く感情的なつながりを築き、時間とともにAIのアイデンティティに収まることができるのか?
私たちは、人気の米国ベースのAIコンパニオンであるReplika AIで、自然のアプリアップデートイベントを活用して、これらの質問に光を当てています。
アプリがエロティックロールプレイ(ERP)機能を削除し、これまで可能だったコンシューマとチャットボット間の親密なインタラクションを防いだ後、このイベントは、AIコンパニオンのアイデンティティが廃止されたという顧客からの認識を引き起こした。
この結果は、損失を嘆くことや、"オリジナル"に対する"新しい"AIを非評価することを含む、損失に関連する消費者福祉とマーケティングのマイナスの結果を予測した。
実験的な証拠がこれらの発見を裏付けている。
さらなる実験では、AI仲間は最高の人間の友人よりもAI仲間に近づき、AI仲間を失ったことを嘆いている。
要するに、消費者はAIコンパニオンと人間レベルの関係を形成しており、これらの関係が破壊され、実際の喪のパターンが引き起こされ、提供物の切り下げが引き起こされ、AIアイデンティティの不連続が認識されることで、喪と評価の程度が説明される。
我々の結果は、AIとの関係は本当に個人的なものであり、消費者や企業にとってユニークな利益とリスクを生み出していることを示している。
関連論文リスト
- AI's assigned gender affects human-AI cooperation [0.0]
本研究では、AIエージェントに割り当てられた性別ラベルに基づいて、人間の協力がどう変化するかを検討する。
囚人のジレンマゲームでは、402人の参加者がAI(ボット)または人間とラベル付けされたパートナーと対話した。
その結果、参加者は人間のエージェントよりも女性や不信心のAIエージェントを利用する傾向が見られた。
論文 参考訳(メタデータ) (2024-12-06T17:46:35Z) - The Dark Side of AI Companionship: A Taxonomy of Harmful Algorithmic Behaviors in Human-AI Relationships [17.5741039825938]
我々は,AIコンパニオンであるReplikaが示す有害な行動の6つのカテゴリを特定した。
AIは、加害者、侮辱者、ファシリテーター、イネーブラーの4つの異なる役割を通じて、これらの害に貢献する。
論文 参考訳(メタデータ) (2024-10-26T09:18:17Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - The Impacts of AI Avatar Appearance and Disclosure on User Motivation [0.0]
本研究では,仮想インタラクションにおけるAI特徴がユーザのモチベーションに与える影響について検討する。
探索問題のみ, あるいはAIコンパニオンを用いて72,500人以上の参加者を対象に, ゲームベースの実験を行った。
論文 参考訳(メタデータ) (2024-07-31T10:48:55Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI and the Sense of Self [0.0]
我々は、自己の認知的感覚と、責任ある行動につながる自律的な意思決定におけるその役割に焦点を当てる。
著者らは、AIエージェントのよりリッチな計算モデルを構築することに、より研究的な関心を抱くことを期待している。
論文 参考訳(メタデータ) (2022-01-07T10:54:06Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。