論文の概要: Tracing Users' Privacy Concerns Across the Lifecycle of a Romantic AI Companion
- arxiv url: http://arxiv.org/abs/2603.21106v2
- Date: Wed, 25 Mar 2026 03:45:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-26 14:25:25.894155
- Title: Tracing Users' Privacy Concerns Across the Lifecycle of a Romantic AI Companion
- Title(参考訳): ロマンティックAIコンパニオンのライフサイクル全体におけるユーザのプライバシの懸念の追跡
- Authors: Kazi Ababil Azam, Imtiaz Karim, Dipto Das,
- Abstract要約: ロマンチックなAIにおけるプライバシは、アクセス、開示、解釈、保持、終了にまたがる社会技術的ガバナンスの進化的問題として最もよく理解されている。
発見は、使用ライフサイクルにまたがって実施されるロマンチックなAIにおいて、プライバシと安全管理の必要性を強調している。
- 参考スコア(独自算出の注目度): 6.529607471212535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Romantic AI chatbots have quickly attracted users, but their emotional use raises concerns about privacy and safety. As people turn to these systems for intimacy, comfort, and emotionally significant interaction, they often disclose highly sensitive information. Yet the privacy implications of such disclosure remain poorly understood in platforms shaped by persistence, intimacy, and opaque data practices. In this paper, we examine public Reddit discussions about privacy in romantic AI chatbot ecosystems through a lifecycle lens. Analyzing 2,909 posts from 79 subreddits collected over one year, we identify four recurring patterns: disproportionate entry requirements, intensified sensitivity in intimate use, interpretive uncertainty and perceived surveillance, and irreversibility, persistence, and user burden. We show that privacy in romantic AI is best understood as an evolving socio-technical governance problem spanning access, disclosure, interpretation, retention, and exit. These findings highlight the need for privacy and safety governance in romantic AI that is staged across the lifecycle of use, supports meaningful reversibility, and accounts for the emotional vulnerability of intimate human-AI interaction.
- Abstract(参考訳): ロマンティックなAIチャットボットは急速にユーザーを惹きつけてきたが、彼らの感情的な利用はプライバシーと安全性に対する懸念を高めている。
人々は親密さ、快適さ、感情的に重要な相互作用のためにこれらのシステムに目を向けると、しばしば非常に敏感な情報を開示する。
しかし、そのような開示のプライバシーへの影響は、永続性、親密性、不透明なデータプラクティスによって形成されたプラットフォームではよく理解されていない。
本稿では、ライフサイクルレンズを通して、ロマンチックなAIチャットボットエコシステムにおけるプライバシーに関するRedditの公開討論について検討する。
1年以上にわたって収集された79件のサブレディットからの2,909件の投稿を分析し、不均等なエントリー要件、親密な使用に対する過敏性強化、解釈の不確実性と認識された監視、不可逆性、永続性、ユーザの負担の4つのパターンを特定した。
ロマンチックなAIにおけるプライバシは、アクセス、開示、解釈、保持、終了にまたがる社会技術的ガバナンスの進化的問題として最もよく理解されている。
これらの調査結果は、使用ライフサイクルを通じて実行され、意味のある可逆性をサポートするロマンチックなAIにおけるプライバシと安全性のガバナンスの必要性を強調し、人間とAIの密接な相互作用の感情的な脆弱性を説明する。
関連論文リスト
- Understanding Users' Privacy Reasoning and Behaviors During Chatbot Use to Support Meaningful Agency in Privacy [0.1390311627586184]
本研究は,学生の行動開示と保護行動,およびこれらの行動の基礎となる理由について検討した。
参加者は、メッセージの送信を傍受するプライバシー通知パネルで、シミュレーションされたChatGPTインターフェースを使用した。
我々は、パネルがプライバシーの意識を高め、保護行為を奨励し、保護すべき情報と方法に関するコンテキスト特異的な推論をサポートする方法について分析した。
論文 参考訳(メタデータ) (2026-01-26T04:13:45Z) - Privacy in Human-AI Romantic Relationships: Concerns, Boundaries, and Agency [8.378494376906334]
インタビュースタディ(N=17)による人間とAIの恋愛関係におけるプライバシの検討
これらの関係は、一対一から一対多まで様々であり、作者、プラットフォーム、モデレーターを含む複数のアクターによって形作られた。
親密さが深まるにつれ、これらの境界線は浸透しやすくなったが、会話の暴露などの懸念の声が上がり、匿名性を維持しようとした参加者もいた。
論文 参考訳(メタデータ) (2026-01-23T15:23:37Z) - Chatting with Confidants or Corporations? Privacy Management with AI Companions [2.1485350418225244]
Replika や Character.AI など,共用AIプラットフォームのユーザ15名を対象に,詳細なインタビューを行った。
その結果,利用者は対人的習慣と機関的意識を混在していることが判明した。
多くの人はプラットフォームレベルのデータ制御について不確実さや無力さを感じている。
論文 参考訳(メタデータ) (2026-01-13T15:15:37Z) - Understanding Users' Security and Privacy Concerns and Attitudes Towards Conversational AI Platforms [3.789219860006095]
r/ChatGPT Redditコミュニティから250万以上のユーザ投稿を大規模に分析して、ユーザのセキュリティとプライバシに関する懸念を理解する。
データライフサイクルの各ステージ(すなわち、収集、使用、保持など)にユーザが関心を持っていることが分かりました。
透明性を高め、データコントロールを改善し、ユーザの信頼と採用を高めるために、ユーザ、プラットフォーム、企業、および政策立案者にレコメンデーションを提供します。
論文 参考訳(メタデータ) (2025-04-09T03:22:48Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [56.46355425175232]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
匿名化に関する以前の研究と比較すると、人間に触発されたアプローチはより自然な書き直しをもたらす。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。