論文の概要: Understanding Users' Privacy Reasoning and Behaviors During Chatbot Use to Support Meaningful Agency in Privacy
- arxiv url: http://arxiv.org/abs/2601.18125v1
- Date: Mon, 26 Jan 2026 04:13:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.671665
- Title: Understanding Users' Privacy Reasoning and Behaviors During Chatbot Use to Support Meaningful Agency in Privacy
- Title(参考訳): プライバシーにおける意味のあるエージェンシーを支援するチャットボットにおけるユーザのプライバシ推論と行動の理解
- Authors: Mohammad Hadi Nezhad, Francisco Enrique Vicente Castro, Ivon Arroyo,
- Abstract要約: 本研究は,学生の行動開示と保護行動,およびこれらの行動の基礎となる理由について検討した。
参加者は、メッセージの送信を傍受するプライバシー通知パネルで、シミュレーションされたChatGPTインターフェースを使用した。
我々は、パネルがプライバシーの意識を高め、保護行為を奨励し、保護すべき情報と方法に関するコンテキスト特異的な推論をサポートする方法について分析した。
- 参考スコア(独自算出の注目度): 0.1390311627586184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational agents (CAs) (e.g., chatbots) are increasingly used in settings where users disclose sensitive information, raising significant privacy concerns. Because privacy judgments are highly contextual, supporting users to engage in privacy-protective actions during chatbot interactions is essential. However, enabling meaningful engagement requires a deeper understanding of how users currently reason about and manage sensitive information during realistic chatbot use scenarios. To investigate this, we qualitatively examined computer science (undergraduate and masters) students' in-the-moment disclosure and protection behaviors, as well as the reasoning underlying these behaviors, across a range of realistic chatbot tasks. Participants used a simulated ChatGPT interface with and without a privacy notice panel that intercepts message submissions, highlights potentially sensitive information, and offers privacy protective actions. The panel supports anonymization through retracting, faking, and generalizing, and surfaces two of ChatGPT's built-in privacy controls to improve their discoverability. Drawing on interaction logs, think-alouds, and survey responses, we analyzed how the panel fostered privacy awareness, encouraged protective actions, and supported context-specific reasoning about what information to protect and how. We further discuss design opportunities for tools that provide users greater and more meaningful agency in protecting sensitive information during CA interactions.
- Abstract(参考訳): 会話エージェント(例えばチャットボット)は、ユーザが機密情報を開示し、重要なプライバシー上の懸念を生じさせるような設定で、ますます使われている。
プライバシー判断は極めて文脈的に行われるため、チャットボットのやりとり中にユーザーがプライバシー保護行動に参加することを支援することが不可欠である。
しかし、意味のあるエンゲージメントを実現するには、現実的なチャットボットの使用シナリオにおいて、ユーザがどのように機密情報を推論し、管理しているかをより深く理解する必要がある。
そこで本研究では,コンピュータサイエンス(学部・修士課程)の学生のモーメント情報開示と保護行動,およびこれらの行動の根拠を,現実的なチャットボットタスクの範囲で質的に検討した。
参加者は、メッセージの送信を傍受し、機密性の高い情報をハイライトし、プライバシー保護措置を提供するプライバシー通知パネルを備えた、シミュレーションされたChatGPTインターフェースを使用した。
パネルは、削除、偽造、一般化による匿名化をサポートし、発見性を改善するためにChatGPTの内蔵プライバシーコントロールのうち2つをサーフェする。
インタラクションログ,シンクアロイド,調査回答に基づいて,パネルがプライバシ意識を高め,保護行動を促進し,保護すべき情報と方法に関するコンテキスト特異的な推論を支援した。
さらに,CA間通信における機密情報保護において,ユーザに対してより高機能かつ有意義な手段を提供するツールの設計機会についても論じる。
関連論文リスト
- Understanding Privacy Norms Around LLM-Based Chatbots: A Contextual Integrity Perspective [14.179623604712065]
我々は,300人のChatGPTユーザを対象に,ChatGPTデータの共有に関するプライバシー規範の出現を理解するための調査実験を行った。
以上の結果から,ユーザの関心事と行動との間には大きな隔たりがあることが判明した。
参加者は、200ドル相当のプレミアム機能と引き換えに、改善されたサービスのための個人情報の共有を一斉に拒否した。
論文 参考訳(メタデータ) (2025-08-09T00:22:46Z) - Protecting Users From Themselves: Safeguarding Contextual Privacy in Interactions with Conversational Agents [33.26308626066122]
会話エージェント(LCA)とのユーザインタラクションにおけるコンテキストプライバシの概念を特徴付ける。
これは、ユーザーが意図した目標を達成するのに必要な情報のみを(ベンダー)が開示することを保証することで、プライバシー上のリスクを最小限にすることを目的としている。
本稿では,ユーザとLCA間のローカルデプロイ可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-22T09:05:39Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [56.46355425175232]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
匿名化に関する以前の研究と比較すると、人間に触発されたアプローチはより自然な書き直しをもたらす。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。