論文の概要: EmojiPrompt: Generative Prompt Obfuscation for Privacy-Preserving Communication with Cloud-based LLMs
- arxiv url: http://arxiv.org/abs/2402.05868v3
- Date: Thu, 20 Mar 2025 20:15:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:54:53.695223
- Title: EmojiPrompt: Generative Prompt Obfuscation for Privacy-Preserving Communication with Cloud-based LLMs
- Title(参考訳): EmojiPrompt: クラウドベースのLLMによるプライバシ保護通信のための生成プロンプト難読化
- Authors: Sam Lin, Wenyue Hua, Zhenting Wang, Mingyu Jin, Lizhou Fan, Yongfeng Zhang,
- Abstract要約: EmojiPromptは生成変換を行い、言語的および非言語的要素を持つプロンプト内でプライベートデータを難読化する。
さまざまなドメインから8つのデータセットにまたがるEmojiPromptの性能を評価した。
EmojiPromptの原子レベルの難読化により、クラウドベースのLCMでのみ機能する。
- 参考スコア(独自算出の注目度): 34.77734655124251
- License:
- Abstract: Cloud-based Large Language Models (LLMs) such as ChatGPT have become increasingly integral to daily operations. Nevertheless, they also introduce privacy concerns: firstly, numerous studies underscore the risks to user privacy posed by jailbreaking cloud-based LLMs; secondly, the LLM service providers have access to all user data, which deters individuals from confidently utilizing such services. To address such concerns, we propose a simple yet effective paradigm, EmojiPrompt, to protect user privacy. At its core, EmojiPrompt performs generative transformation, obfuscating private data within prompts with linguistic and non-linguistic elements before submitting them to cloud-based LLMs. We evaluate EmojiPrompt's performance across 8 datasets from various domains. We also propose simulated inference attacks to assess EmojiPrompt's ability to preserve user privacy. The results demonstrate that EmojiPrompt effectively obfuscates user private data, while largely maintaining, or even enhancing, performances compared to the unobfuscated version. Furthermore, EmojiPrompt's atomic-level obfuscation allows it to function exclusively with cloud-based LLMs. For source code, please refer to: https://github.com/agiresearch/EmojiCrypt.
- Abstract(参考訳): ChatGPTのようなクラウドベースの大規模言語モデル(LLM)は、日々の操作にますます不可欠なものになっている。
ひとつは、クラウドベースのLLMをジェイルブレイクすることによるユーザプライバシのリスクを、もうひとつは、LLMサービスプロバイダがすべてのユーザデータにアクセスでき、個人がそのようなサービスを利用するのを確実に妨げていることだ。
このような問題に対処するため,ユーザプライバシ保護のため,シンプルながら効果的なパラダイムであるEmojiPromptを提案する。
EmojiPromptの中核は、生成的変換を実行し、言語的および非言語的な要素でプロンプト内でプライベートデータを難読化した後、それらをクラウドベースのLLMに送信する。
さまざまなドメインから8つのデータセットにまたがるEmojiPromptの性能を評価した。
また,EmojiPromptのユーザプライバシ保護能力を評価するためのシミュレーション推論攻撃を提案する。
結果は、EmojiPromptがユーザのプライベートデータを効果的に難読化していることを示している。
さらに、EmojiPromptの原子レベルの難読化により、クラウドベースのLCMでのみ機能する。
ソースコードについては、https://github.com/agiresearch/EmojiCryptを参照してください。
関連論文リスト
- Hades: Homomorphic Augmented Decryption for Efficient Symbol-comparison -- A Database's Perspective [1.3824176915623292]
本稿では,暗号化データの効率的かつセキュアな比較を可能にする新しい暗号フレームワークであるHADESを紹介する。
Ring Learning with Errors (RLWE)問題に基づいて、HADESはCPAセキュリティを提供し、周波数分析攻撃を軽減するために摂動認識暗号化を組み込んでいる。
論文 参考訳(メタデータ) (2024-12-28T02:47:14Z) - Confidential Prompting: Protecting User Prompts from Cloud LLM Providers [0.688204255655161]
当社の作業は,クラウドホスト型大規模言語モデル(LLM)サービスにおけるユーザインプットの確保という課題に対処する。
秘密計算を利用してユーザプロンプトを信頼できる実行環境に閉じ込めるセキュアなマルチパーティデコーディング(SMD)を導入する。
提案手法は, 迅速な秘密保持とLCM機能効率の両立を実証する。
論文 参考訳(メタデータ) (2024-09-27T20:32:42Z) - CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - dabih -- encrypted data storage and sharing platform [0.0]
dabihは、ユーザフレンドリな暗号化データ管理を容易にするために設計されたオープンソースのWebアプリケーションである。
データセキュリティに対するアプローチは、2段階のエンベロープ暗号化プロセスを含む。
データの復号化に必要な秘密鍵は、所有者のデバイスに限られる。
論文 参考訳(メタデータ) (2024-01-16T12:57:35Z) - Simple client-side encryption of personal information with Web Assembly [0.0]
Web Assemblyを使ってクライアント側のデータを暗号化する簡単な方法が提案されている。
この方法はセマンティック・メディカル・データベースのために開発されており、パスワードを追加して個人データにアクセスすることができる。
論文 参考訳(メタデータ) (2023-12-29T17:10:57Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [85.18213923151717]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - Privacy Implications of Retrieval-Based Language Models [26.87950501433784]
本稿では,検索に基づくLM,特に$k$NN-LMにおけるプライバシリスクに関する最初の研究について述べる。
パラメトリックモデルよりも、$k$NN-LMsの方がプライベートデータストアから個人情報をリークする可能性が高いことがわかりました。
論文 参考訳(メタデータ) (2023-05-24T08:37:27Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。