論文の概要: Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild
- arxiv url: http://arxiv.org/abs/2407.11438v1
- Date: Tue, 16 Jul 2024 07:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 16:22:29.717152
- Title: Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild
- Title(参考訳): Trust No Bot: 野生の人間とLLMの会話で個人的情報開示が発見される
- Authors: Niloofar Mireshghallah, Maria Antoniak, Yash More, Yejin Choi, Golnoosh Farnadi,
- Abstract要約: 人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
- 参考スコア(独自算出の注目度): 40.57348900292574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measuring personal disclosures made in human-chatbot interactions can provide a better understanding of users' AI literacy and facilitate privacy research for large language models (LLMs). We run an extensive, fine-grained analysis on the personal disclosures made by real users to commercial GPT models, investigating the leakage of personally identifiable and sensitive information. To understand the contexts in which users disclose to chatbots, we develop a taxonomy of tasks and sensitive topics, based on qualitative and quantitative analysis of naturally occurring conversations. We discuss these potential privacy harms and observe that: (1) personally identifiable information (PII) appears in unexpected contexts such as in translation or code editing (48% and 16% of the time, respectively) and (2) PII detection alone is insufficient to capture the sensitive topics that are common in human-chatbot interactions, such as detailed sexual preferences or specific drug use habits. We believe that these high disclosure rates are of significant importance for researchers and data curators, and we call for the design of appropriate nudging mechanisms to help users moderate their interactions.
- Abstract(参考訳): ヒューマン・チャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解し、大規模言語モデル(LLM)のプライバシー調査を容易にすることができる。
我々は、実際のユーザによる商用GPTモデルへの個人情報開示を詳細に分析し、個人を識別し、機密性の高い情報の漏洩を調査した。
ユーザがチャットボットに開示するコンテキストを理解するために,自然発生会話の質的・定量的分析に基づいて,タスクやセンシティブなトピックの分類を開発する。
個人の識別可能な情報(PII)は,(1)翻訳やコード編集などの予期せぬ状況に現れ,(2)PII検出だけでは,詳細な性的嗜好や特定の薬物使用習慣など,人間とチャットボットの相互作用に共通するセンシティブなトピックを捉えるには不十分である。
これらの情報開示率は研究者やデータキュレーターにとって非常に重要であると我々は信じており、ユーザによるインタラクションの緩和を支援するための適切なヌード機構の設計を求めている。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Identifying Privacy Personas [27.301741710016223]
プライバシ・ペルソナは、自身の知識、行動パターン、自己効力度レベル、プライバシ保護の重要性に対する認識に関して、ユーザセグメントの違いを捉えている。
文学では様々なプライバシ・ペルソナが派生しているが、重要な属性の観点から異なる人物をまとめている。
本研究では,対話型教育アンケートに対する質的,定量的な回答分析を組み合わせることで導出する8つのペルソナを提案する。
論文 参考訳(メタデータ) (2024-10-17T20:49:46Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - On the Reliability of Large Language Models to Misinformed and Demographically-Informed Prompts [20.84000437261526]
本研究では,大言語モデル(LLM)が支援するチャットボットを用いて,人口統計情報を用いて,誤情報や質問に対処する。
True/Falseの質問を使って定量的に分析すると、これらのチャットボットがこれらのクローズドな質問に対して正しい答えを与えることができることが分かる。
ドメインの専門家から集めた質的な洞察は プライバシーや倫理的影響に 懸念がまだあることを示している
論文 参考訳(メタデータ) (2024-10-06T07:40:11Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - User Privacy Harms and Risks in Conversational AI: A Proposed Framework [1.8416014644193066]
本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
論文 参考訳(メタデータ) (2024-02-15T05:21:58Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。