論文の概要: Understanding Privacy Norms Around LLM-Based Chatbots: A Contextual Integrity Perspective
- arxiv url: http://arxiv.org/abs/2508.06760v1
- Date: Sat, 09 Aug 2025 00:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.536195
- Title: Understanding Privacy Norms Around LLM-Based Chatbots: A Contextual Integrity Perspective
- Title(参考訳): LLMベースのチャットボットを取り巻くプライバシー規範の理解--コンテキスト統合の視点から
- Authors: Sarah Tran, Hongfan Lu, Isaac Slaughter, Bernease Herman, Aayushi Dangol, Yue Fu, Lufei Chen, Biniyam Gebreyohannes, Bill Howe, Alexis Hiniker, Nicholas Weber, Robert Wolfe,
- Abstract要約: 我々は,300人のChatGPTユーザを対象に,ChatGPTデータの共有に関するプライバシー規範の出現を理解するための調査実験を行った。
以上の結果から,ユーザの関心事と行動との間には大きな隔たりがあることが判明した。
参加者は、200ドル相当のプレミアム機能と引き換えに、改善されたサービスのための個人情報の共有を一斉に拒否した。
- 参考スコア(独自算出の注目度): 14.179623604712065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-driven chatbots like ChatGPT have created large volumes of conversational data, but little is known about how user privacy expectations are evolving with this technology. We conduct a survey experiment with 300 US ChatGPT users to understand emerging privacy norms for sharing chatbot data. Our findings reveal a stark disconnect between user concerns and behavior: 82% of respondents rated chatbot conversations as sensitive or highly sensitive - more than email or social media posts - but nearly half reported discussing health topics and over one-third discussed personal finances with ChatGPT. Participants expressed strong privacy concerns (t(299) = 8.5, p < .01) and doubted their conversations would remain private (t(299) = -6.9, p < .01). Despite this, respondents uniformly rejected sharing personal data (search history, emails, device access) for improved services, even in exchange for premium features worth $200. To identify which factors influence appropriate chatbot data sharing, we presented participants with factorial vignettes manipulating seven contextual factors. Linear mixed models revealed that only the transmission factors such as informed consent, data anonymization, or the removal of personally identifiable information, significantly affected perceptions of appropriateness and concern for data access. Surprisingly, contextual factors including the recipient of the data (hospital vs. tech company), purpose (research vs. advertising), type of content, and geographic location did not show significant effects. Our results suggest that users apply consistent baseline privacy expectations to chatbot data, prioritizing procedural safeguards over recipient trustworthiness. This has important implications for emerging agentic AI systems that assume user willingness to integrate personal data across platforms.
- Abstract(参考訳): ChatGPTのようなLLM駆動のチャットボットは、大量の会話データを生成しているが、この技術でユーザのプライバシーの期待がどのように進化しているかは、ほとんど分かっていない。
我々は、チャットボットデータを共有するためのプライバシー規範の出現を理解するために、300人の米国ChatGPTユーザーを対象に調査実験を行った。
回答者の82%は、チャットボットの会話を、メールやソーシャルメディアの投稿よりも、センシティブなものか、非常にセンシティブなものだと評価しています。
参加者は強いプライバシー上の懸念(t(299) = 8.5, p < .01)を表明し、彼らの会話が非公開であること(t(299) = -6.9, p < .01)を疑った。
それにもかかわらず、回答者は、200ドル相当のプレミアム機能と引き換えに、改善されたサービスのための個人データ(検索履歴、メール、デバイスアクセス)の共有を均一に拒否した。
適切なチャットボットデータ共有に影響を及ぼす要因を識別するために,7つの文脈因子を操作する因子的ウィグレットを参加者に提示した。
線形混合モデルでは、インフォームドコンセント、データ匿名化、個人識別可能な情報の削除などの伝達要因のみが、データアクセスに対する適切性や懸念の認識に大きく影響したことが明らかとなった。
驚いたことに、データ(ホスピタル対テック企業)の受信者、目的(検索対広告)、コンテンツの種類、地理的位置などのコンテキスト要因は、大きな影響を示さなかった。
以上の結果から,利用者はチャットボットデータに一貫したプライバシー期待を適用し,受取人の信頼性よりも手続き的保護を優先することが示唆された。
これは、プラットフォーム間で個人データを統合しようとするユーザの意欲を前提とする、新たなエージェントAIシステムに重要な意味を持つ。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Investigating User Perspectives on Differentially Private Text Privatization [81.59631769859004]
この研究は、$textitscenario$, $textitdata sensitivity$, $textitmechanism type$, $textitreason for data collection$, $textitreason for user preferences for text privatizationについて調査する。
これらの要因がプライバシー決定に影響を及ぼす一方で、ユーザはプライベートな出力テキストの有用性と一貫性に非常に敏感である、ということを学びました。
論文 参考訳(メタデータ) (2025-03-12T12:33:20Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [56.46355425175232]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
匿名化に関する以前の研究と比較すると、人間に触発されたアプローチはより自然な書き直しをもたらす。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - Privacy Concerns in Chatbot Interactions: When to Trust and When to
Worry [3.867363075280544]
英国市民491名を対象に調査を行った。
以上の結果から,ユーザの関心は個人情報の削除とデータの不適切な使用に対する懸念に焦点が当てられていることがわかった。
また、会話エージェントと会話した後、個人がデータのコントロールを失うことを懸念していることも確認した。
論文 参考訳(メタデータ) (2021-07-08T16:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。