論文の概要: Casper: Prompt Sanitization for Protecting User Privacy in Web-Based Large Language Models
- arxiv url: http://arxiv.org/abs/2408.07004v1
- Date: Tue, 13 Aug 2024 16:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 16:55:31.503536
- Title: Casper: Prompt Sanitization for Protecting User Privacy in Web-Based Large Language Models
- Title(参考訳): Casper: Webベースの大規模言語モデルにおけるユーザプライバシ保護のためのプロンプト衛生
- Authors: Chun Jie Chong, Chenxi Hou, Zhihao Yao, Seyed Mohammadjavad Seyed Talebi,
- Abstract要約: Casper は LLM サービスに送信する前に,ユーザの入力から機密情報を検出および削除することで,ユーザのプライバシ保護を目指している。
Casperのコアには、ルールベースのフィルタ、機械学習(ML)ベースの名前付きエンティティ認識器、ブラウザベースのローカルLLMトピック識別子からなる3層化機構がある。
我々は,4000個の合成プロンプトのデータセット上でCasperを評価し,PII(Personal Identible Information)とプライバシーに敏感なトピックを,それぞれ98.5%,89.9%の精度で効果的にフィルタリングできることを示した。
- 参考スコア(独自算出の注目度): 1.6649383443094403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Web-based Large Language Model (LLM) services have been widely adopted and have become an integral part of our Internet experience. Third-party plugins enhance the functionalities of LLM by enabling access to real-world data and services. However, the privacy consequences associated with these services and their third-party plugins are not well understood. Sensitive prompt data are stored, processed, and shared by cloud-based LLM providers and third-party plugins. In this paper, we propose Casper, a prompt sanitization technique that aims to protect user privacy by detecting and removing sensitive information from user inputs before sending them to LLM services. Casper runs entirely on the user's device as a browser extension and does not require any changes to the online LLM services. At the core of Casper is a three-layered sanitization mechanism consisting of a rule-based filter, a Machine Learning (ML)-based named entity recognizer, and a browser-based local LLM topic identifier. We evaluate Casper on a dataset of 4000 synthesized prompts and show that it can effectively filter out Personal Identifiable Information (PII) and privacy-sensitive topics with high accuracy, at 98.5% and 89.9%, respectively.
- Abstract(参考訳): WebベースのLarge Language Model (LLM) サービスが広く採用され、インターネットエクスペリエンスの不可欠な部分となっている。
サードパーティプラグインは、現実のデータやサービスへのアクセスを可能にすることで、LLMの機能を高める。
しかし、これらのサービスとそのサードパーティプラグインに関連するプライバシー上の影響はよく理解されていない。
センシティブなプロンプトデータは、クラウドベースのLLMプロバイダとサードパーティのプラグインによって保存、処理、共有される。
本稿では,LCMサービスに送信する前にユーザの入力から機密情報を検出・削除することで,ユーザのプライバシ保護を目的とした迅速な衛生手法であるCasperを提案する。
Casperは、完全にユーザのデバイス上でブラウザ拡張として動作し、オンラインLLMサービスを変更する必要はない。
Casperのコアには、ルールベースのフィルタ、機械学習(ML)ベースの名前付きエンティティ認識器、ブラウザベースのローカルLLMトピック識別子からなる3層化機構がある。
我々は,4000個の合成プロンプトのデータセット上でCasperを評価し,PII(Personal Identible Information)とプライバシーに敏感なトピックを,それぞれ98.5%,89.9%の精度で効果的にフィルタリングできることを示した。
関連論文リスト
- PAPILLON: PrivAcy Preservation from Internet-based and Local Language MOdel ENsembles [21.340456482528136]
APIベースおよびローカルモデルをチェーンする新しいタスクであるPrivacy-Conscious Delegationを提案する。
我々は最近のユーザ-LLMインタラクションの公開コレクションを利用して、PUPAと呼ばれる自然なベンチマークを構築する。
私たちの最高のパイプラインは、85.5%のユーザクエリに対して高い応答品質を維持しながら、プライバシリークを7.5%に制限しています。
論文 参考訳(メタデータ) (2024-10-22T16:00:26Z) - Rescriber: Smaller-LLM-Powered User-Led Data Minimization for Navigating Privacy Trade-offs in LLM-Based Conversational Agent [2.2447085410328103]
Rescriberは、LLMベースの会話エージェントでユーザ主導のデータ最小化をサポートするブラウザエクステンションである。
我々の研究によると、Rescriberはユーザーが不必要な開示を減らし、プライバシー上の懸念に対処するのに役立ちました。
以上の結果から,LLMによる小型ユーザ向けオンデバイスプライバシコントロールの実現可能性が確認された。
論文 参考訳(メタデータ) (2024-10-10T01:23:16Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PFID: Privacy First Inference Delegation Framework for LLMs [34.59282305562392]
本稿では,LPMのためのPFIDという新しいプライバシ保護フレームワークを提案する。
モデルのシャーディングと特異値分解を通じてユーザデータをローカライズすることで、重要なプライバシー上の懸念に対処する。
論文 参考訳(メタデータ) (2024-06-18T03:27:09Z) - EmojiCrypt: Prompt Encryption for Secure Communication with Large
Language Models [41.090214475309516]
クラウドベースの大規模言語モデル(LLM)は、データ漏洩と機密情報への不正アクセスの重大なリスクを引き起こす。
本稿では,ユーザプライバシ保護のためのシンプルかつ効果的なメカニズムであるEmojiCryptを提案する。
論文 参考訳(メタデータ) (2024-02-08T17:57:11Z) - ConfusionPrompt: Practical Private Inference for Online Large Language Models [3.8134804426693094]
最先端の大規模言語モデル(LLM)は一般的にオンラインサービスとしてデプロイされ、ユーザーはクラウドサーバーに詳細なプロンプトを送信する必要がある。
我々は,従来のプロンプトを小さなサブプロンプトに分解することで,ユーザのプライバシを保護する,プライベートLLM推論のための新しいフレームワークであるConfusionPromptを紹介する。
コンフュージョンプロンプトは,オープンソースモデルと摂動に基づく手法を用いて,局所的推論手法よりもはるかに高い実用性を実現することを示す。
論文 参考訳(メタデータ) (2023-12-30T01:26:42Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。