論文の概要: Are Chatbots Ready for Privacy-Sensitive Applications? An Investigation
into Input Regurgitation and Prompt-Induced Sanitization
- arxiv url: http://arxiv.org/abs/2305.15008v1
- Date: Wed, 24 May 2023 10:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 16:55:51.948390
- Title: Are Chatbots Ready for Privacy-Sensitive Applications? An Investigation
into Input Regurgitation and Prompt-Induced Sanitization
- Title(参考訳): チャットボットはプライバシーに敏感なアプリケーションに適しているか?
入力レギュレーションとプロンプトによる衛生に関する研究
- Authors: Aman Priyanshu, Supriti Vijay, Ayush Kumar, Rakshit Naidu and
Fatemehsadat Mireshghallah
- Abstract要約: ChatGPTは個人識別可能な情報(PII)を57.4%の症例で口頭で保持する。
本稿では,ChatGPTのプライバシ関連ポリシとメカニズムに対する認識を直接指示し,準拠したアウトプットを提供することで,ChatGPTの認識を探索する。
- 参考スコア(独自算出の注目度): 4.01610127647615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-powered chatbots are becoming widely adopted in applications such as
healthcare, personal assistants, industry hiring decisions, etc. In many of
these cases, chatbots are fed sensitive, personal information in their prompts,
as samples for in-context learning, retrieved records from a database, or as
part of the conversation. The information provided in the prompt could directly
appear in the output, which might have privacy ramifications if there is
sensitive information there. As such, in this paper, we aim to understand the
input copying and regurgitation capabilities of these models during inference
and how they can be directly instructed to limit this copying by complying with
regulations such as HIPAA and GDPR, based on their internal knowledge of them.
More specifically, we find that when ChatGPT is prompted to summarize cover
letters of a 100 candidates, it would retain personally identifiable
information (PII) verbatim in 57.4% of cases, and we find this retention to be
non-uniform between different subgroups of people, based on attributes such as
gender identity. We then probe ChatGPT's perception of privacy-related policies
and privatization mechanisms by directly instructing it to provide compliant
outputs and observe a significant omission of PII from output.
- Abstract(参考訳): LLMを利用したチャットボットは、医療、パーソナルアシスタント、業界の雇用決定などのアプリケーションで広く採用されている。
多くの場合、チャットボットは、インコンテキスト学習のためのサンプル、データベースから取得したレコード、会話の一部として、そのプロンプトに機密性の高い個人情報を入力される。
プロンプトで提供される情報は出力に直接表示され、機密情報があればプライバシーに悪影響を及ぼす可能性がある。
そこで本論文では,これらのモデルの推論における入力コピーと再生能力の理解と,HIPAAやGDPRなどの規則に従って直接このコピーを制限できるように指示する方法について,その内部知識に基づいて検討する。
より具体的には、ChatGPTが100人の候補者のカバーレターを要約するよう促されると、57.4%のケースで個人識別可能な情報(PII)の動詞を保持でき、この保持は、性同一性などの属性に基づいて、異なるサブグループ間で不均一であることがわかった。
次に、ChatGPTのプライバシ関連ポリシーと民営化メカニズムに対する認識を調査し、直接指示することで、準拠した出力を提供し、出力からPIIのかなりの排除を観察する。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Prompt Engineering a Schizophrenia Chatbot: Utilizing a Multi-Agent Approach for Enhanced Compliance with Prompt Instructions [0.0699049312989311]
統合失調症の患者は、しばしば認知障害を伴い、自分の状態について学ぶ能力を妨げることがある。
大規模言語モデル(LLM)は、トピックのメンタルヘルス情報をよりアクセシビリティとエンゲージメントを高める可能性を秘めているが、それらのブラックボックスの性質は倫理と安全に関する懸念を喚起する。
論文 参考訳(メタデータ) (2024-10-10T09:49:24Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - DeID-GPT: Zero-shot Medical Text De-Identification by GPT-4 [80.36535668574804]
我々は新しいGPT4対応脱識別フレームワーク(DeID-GPT)を開発した。
開発したDeID-GPTは,非構造化医用テキストからの個人情報のマスキングにおいて,高い精度と信頼性を示した。
本研究は,ChatGPTおよびGPT-4を医療用テキストデータ処理および非識別に利用した最初期の1つである。
論文 参考訳(メタデータ) (2023-03-20T11:34:37Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。