論文の概要: PromptCrypt: Prompt Encryption for Secure Communication with Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.05868v1
- Date: Thu, 8 Feb 2024 17:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 13:36:09.620747
- Title: PromptCrypt: Prompt Encryption for Secure Communication with Large
Language Models
- Title(参考訳): PromptCrypt: 大規模言語モデルによるセキュア通信のためのプロンプト暗号化
- Authors: Guo Lin, Wenyue Hua, Yongfeng Zhang
- Abstract要約: クラウドベースの大規模言語モデル(LLM)は、データ漏洩と機密情報への不正アクセスの重大なリスクを引き起こす。
本稿では,ユーザプライバシ保護のためのシンプルかつ効果的なメカニズムであるPromptCryptを提案する。
ユーザ入力をLLMに送信する前に暗号化するために絵文字を使用しており、人間やLLMの検査では解読できない。
- 参考スコア(独自算出の注目度): 41.090214475309516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud-based large language models (LLMs) such as ChatGPT have increasingly
become integral to daily operations, serving as vital tools across various
applications. While these models offer substantial benefits in terms of
accessibility and functionality, they also introduce significant privacy
concerns: the transmission and storage of user data in cloud infrastructures
pose substantial risks of data breaches and unauthorized access to sensitive
information; even if the transmission and storage of data is encrypted, the LLM
service provider itself still knows the real contents of the data, preventing
individuals or entities from confidently using such LLM services. To address
these concerns, this paper proposes a simple yet effective mechanism
PromptCrypt to protect user privacy. It uses Emoji to encrypt the user inputs
before sending them to LLM, effectively rendering them indecipherable to human
or LLM's examination while retaining the original intent of the prompt, thus
ensuring the model's performance remains unaffected. We conduct experiments on
three tasks, personalized recommendation, sentiment analysis, and tabular data
analysis. Experiment results reveal that PromptCrypt can encrypt personal
information within prompts in such a manner that not only prevents the
discernment of sensitive data by humans or LLM itself, but also maintains or
even improves the precision without further tuning, achieving comparable or
even better task accuracy than directly prompting the LLM without prompt
encryption. These results highlight the practicality of adopting encryption
measures that safeguard user privacy without compromising the functional
integrity and performance of LLMs. Code and dataset are available at
https://github.com/agiresearch/PromptCrypt.
- Abstract(参考訳): ChatGPTのようなクラウドベースの大規模言語モデル(LLM)は、日々の運用に不可欠なものとなり、さまざまなアプリケーションにまたがる重要なツールとなっている。
While these models offer substantial benefits in terms of accessibility and functionality, they also introduce significant privacy concerns: the transmission and storage of user data in cloud infrastructures pose substantial risks of data breaches and unauthorized access to sensitive information; even if the transmission and storage of data is encrypted, the LLM service provider itself still knows the real contents of the data, preventing individuals or entities from confidently using such LLM services.
これらの問題に対処するため,ユーザプライバシ保護のためのシンプルかつ効果的なPromptCryptを提案する。
ユーザ入力をLLMに送信する前に暗号化するために絵文字を使用しており、プロンプトの本来の意図を維持しながら、人間やLLMの検査では解読できないので、モデルの性能に影響を与えない。
パーソナライズドレコメンデーション,感情分析,表データ分析という3つのタスクについて実験を行った。
実験結果によると、PromptCryptは、人間やLDM自体による機密データの識別を防止できるだけでなく、さらなるチューニングをすることなく精度を維持・改善できるだけでなく、即時暗号化なしで直接LLMを誘導するよりも、同等またはそれ以上のタスク精度を達成できる。
これらの結果は,LLMの機能的整合性と性能を損なうことなく,ユーザのプライバシを保護する暗号化手法を採用する実践性を強調した。
コードとデータセットはhttps://github.com/agiresearch/promptcryptで入手できる。
関連論文リスト
- Confidential Prompting: Protecting User Prompts from Cloud LLM Providers [0.688204255655161]
ユーザプロンプトを信頼された実行環境に限定するために,セキュアなマルチパーティデコーディング(SMD)を導入する。
また,再建攻撃に対する堅牢性を確保するため,新しい暗号手法であるPrompt Obfuscation(PO)を導入する。
我々のソリューションは、臨床記録、財務データ、個人情報などの機密性の高いプロンプトを処理する、プライバシ保護クラウドLLMサービスを可能にする。
論文 参考訳(メタデータ) (2024-09-27T20:32:42Z) - Ciphertext-Only Attack on a Secure $k$-NN Computation on Cloud [0.0]
暗号化は、不正アクセス、データ漏洩、そしてその結果の金銭的損失、評判の損害、法的問題を防ぐことができる。
Sanyashiらは、クラウド上のプライバシー保護のための$k$-NN計算を容易にする暗号化スキームを提案した。
我々は、効率的なアルゴリズムを与え、その暗号方式が暗号文のみの攻撃(COA)に弱いことを実証的に示す。
論文 参考訳(メタデータ) (2024-03-14T03:53:01Z) - CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - dabih -- encrypted data storage and sharing platform [0.0]
dabihは、ユーザフレンドリな暗号化データ管理を容易にするために設計されたオープンソースのWebアプリケーションである。
データセキュリティに対するアプローチは、2段階のエンベロープ暗号化プロセスを含む。
データの復号化に必要な秘密鍵は、所有者のデバイスに限られる。
論文 参考訳(メタデータ) (2024-01-16T12:57:35Z) - Simple client-side encryption of personal information with Web Assembly [0.0]
Web Assemblyを使ってクライアント側のデータを暗号化する簡単な方法が提案されている。
この方法はセマンティック・メディカル・データベースのために開発されており、パスワードを追加して個人データにアクセスすることができる。
論文 参考訳(メタデータ) (2023-12-29T17:10:57Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [85.18213923151717]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - Privacy Implications of Retrieval-Based Language Models [26.87950501433784]
本稿では,検索に基づくLM,特に$k$NN-LMにおけるプライバシリスクに関する最初の研究について述べる。
パラメトリックモデルよりも、$k$NN-LMsの方がプライベートデータストアから個人情報をリークする可能性が高いことがわかりました。
論文 参考訳(メタデータ) (2023-05-24T08:37:27Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。