論文の概要: Chatting with Confidants or Corporations? Privacy Management with AI Companions
- arxiv url: http://arxiv.org/abs/2601.10754v1
- Date: Tue, 13 Jan 2026 15:15:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.234157
- Title: Chatting with Confidants or Corporations? Privacy Management with AI Companions
- Title(参考訳): 利害関係者や企業とのチャット : AIコンパニオンによるプライバシ管理
- Authors: Hsuen-Chi Chiu, Jeremy Foote,
- Abstract要約: Replika や Character.AI など,共用AIプラットフォームのユーザ15名を対象に,詳細なインタビューを行った。
その結果,利用者は対人的習慣と機関的意識を混在していることが判明した。
多くの人はプラットフォームレベルのデータ制御について不確実さや無力さを感じている。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI chatbots designed as emotional companions blur the boundaries between interpersonal intimacy and institutional software, creating a complex, multi-dimensional privacy environment. Drawing on Communication Privacy Management theory and Masur's horizontal (user-AI) and vertical (user-platform) privacy framework, we conducted in-depth interviews with fifteen users of companion AI platforms such as Replika and Character.AI. Our findings reveal that users blend interpersonal habits with institutional awareness: while the non-judgmental, always-available nature of chatbots fosters emotional safety and encourages self-disclosure, users remain mindful of institutional risks and actively manage privacy through layered strategies and selective sharing. Despite this, many feel uncertain or powerless regarding platform-level data control. Anthropomorphic design further blurs privacy boundaries, sometimes leading to unintentional oversharing and privacy turbulence. These results extend privacy theory by highlighting the unique interplay of emotional and institutional privacy management in human-AI companionship.
- Abstract(参考訳): 感情的な仲間として設計されたAIチャットボットは、対人親密性と制度的ソフトウェアの境界を曖昧にし、複雑な多次元プライバシー環境を作り出す。
コミュニケーションプライバシ管理理論とMasurの水平(ユーザAI)および垂直(ユーザプラットフォーム)プライバシフレームワークを参考に,Replikaや character.AIといったAIプラットフォームの15ユーザを対象に,詳細なインタビューを行った。
チャットボットの非判断的かつ常に利用可能な性質は、感情的安全性を高め、自己開示を促進する一方で、ユーザは制度的なリスクに気を配り、階層化された戦略と選択的な共有を通じてプライバシーを積極的に管理する。
それにもかかわらず、プラットフォームレベルのデータ制御に関して、多くの人々は不確実さや無力さを感じている。
人為的なデザインは、プライバシーの境界をさらに曖昧にし、時には意図しないオーバーシェアリングやプライバシーの混乱を引き起こす。
これらの結果は、人間とAIの協力関係における感情的および制度的プライバシ管理のユニークな相互作用を強調することによって、プライバシー理論を拡張している。
関連論文リスト
- PrivacyBench: A Conversational Benchmark for Evaluating Privacy in Personalized AI [8.799432439533211]
AIエージェントはユーザのデジタルフットプリントへのアクセスに依存しており、プライベートメールやチャット、購入履歴からの機密データを含むことが多い。
このアクセスは、基本的な社会的およびプライバシーリスクを生み出します。
埋め込みシークレットを含む社会的基盤データセットを備えたベンチマークであるPrivacyBenchを紹介する。
論文 参考訳(メタデータ) (2025-12-31T13:16:45Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [40.47039082007319]
大規模言語モデル(LLM)ベースのAIデリゲートは、ユーザに代わって機能するためにますます利用されています。
プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - User Privacy Harms and Risks in Conversational AI: A Proposed Framework [1.8416014644193066]
本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
論文 参考訳(メタデータ) (2024-02-15T05:21:58Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Dis-Empowerment Online: An Investigation of Privacy-Sharing Perceptions
& Method Preferences [6.09170287691728]
プライバシーのエンパワーメントの認識は、意味、能力、選択の次元をまたいだ共有の認識とは異なることが分かっています。
米国、英国、ドイツの間では、プライバシーメソッドの嗜好の類似点と相違点が見つかります。
プライバシ非エンパワーメントの認識をオンラインのプライバシ行動パターンにマッピングすることにより、今後の研究に重要な基盤を提供する。
論文 参考訳(メタデータ) (2020-03-19T19:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。