論文の概要: Semantic Encryption: Secure and Effective Interaction with Cloud-based Large Language Models via Semantic Transformation
- arxiv url: http://arxiv.org/abs/2508.01638v1
- Date: Sun, 03 Aug 2025 07:54:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.981785
- Title: Semantic Encryption: Secure and Effective Interaction with Cloud-based Large Language Models via Semantic Transformation
- Title(参考訳): セマンティック暗号化:セマンティックトランスフォーメーションによるクラウドベース大規模言語モデルとのセキュアで効果的なインタラクション
- Authors: Dong Chen, Tong Yang, Feipeng Zhai, Pengpeng Ouyang, Qidong Liu, Yafei Li, Chong Fu, Mingliang Xu,
- Abstract要約: クラウドベースの大規模言語モデル(CLLM)は、ユーザインタラクション中のデータのプライバシに関する重要な懸念を提起している。
本稿では,プライバシとユーティリティの両方を維持するために設計されたセマンティック暗号化(SE)のプラグイン・アンド・プレイフレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.137599131314296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing adoption of Cloud-based Large Language Models (CLLMs) has raised significant concerns regarding data privacy during user interactions. While existing approaches primarily focus on encrypting sensitive information, they often overlook the logical structure of user inputs. This oversight can lead to reduced data utility and degraded performance of CLLMs. To address these limitations and enable secure yet effective interactions, we propose Semantic Encryption (SE)-a plug-and-play framework designed to preserve both privacy and utility. SE consists of two key components: Semantic Encoding and Semantic Decoding. In the encoding phase, a lightweight local model transforms the original user input into an alternative semantic context that maintains the original intent and logical structure while obfuscating sensitive information. This transformed input is then processed by the CLLM, which generates a response based on the transformed semantic context. To maintain a seamless user experience, the decoding phase will reconstruct the CLLM's response back into the original semantic context by referencing the locally stored user input. Extensive experimental evaluations demonstrate that SE effectively protects data privacy without compromising data utility or user experience, offering a practical solution for secure interaction with CLLMs. Particularly, the proposed SE demonstrates a significant improvement over the state-of-the-art InferDPT, surpassing it across various evaluated metrics and datasets.
- Abstract(参考訳): クラウドベースの大規模言語モデル(CLLM)の採用の増加は、ユーザインタラクション中のデータのプライバシに関する重要な懸念を引き起こしている。
既存のアプローチは主に機密情報の暗号化に重点を置いているが、ユーザ入力の論理構造を見落としていることが多い。
この監視はデータユーティリティの低減とCLLMの性能低下につながる可能性がある。
これらの制限に対処し、セキュアで効果的なインタラクションを可能にするために、プライバシとユーティリティの両方を維持するために設計されたセマンティック暗号化(SE)・プラグイン・アンド・プレイフレームワークを提案する。
SEはセマンティックエンコーディング(Semantic Encoding)とセマンティックデコーディング(Semantic Decoding)の2つの重要なコンポーネントで構成されている。
符号化フェーズでは、軽量なローカルモデルにより、元のユーザ入力を、センシティブな情報を難読化しつつ、元の意図と論理構造を維持した代替のセマンティックコンテキストに変換する。
この変換された入力はCLLMによって処理され、変換されたセマンティックコンテキストに基づいて応答を生成する。
シームレスなユーザエクスペリエンスを維持するために、デコードフェーズは、ローカルに格納されたユーザ入力を参照することにより、CLLMの応答を元のセマンティックコンテキストに再構成する。
大規模な実験的評価では、SEはデータユーティリティやユーザエクスペリエンスを損なうことなく、データプライバシを効果的に保護し、CLLMとのセキュアなインタラクションのための実用的なソリューションを提供する。
特に、提案されたSEは最先端のInferDPTよりも大幅に改善され、さまざまな評価されたメトリクスやデータセットにまたがっている。
関連論文リスト
- SoK: Semantic Privacy in Large Language Models [24.99241770349404]
本稿では,大規模言語モデル(LLM)の入力処理,事前学習,微調整,アライメント段階におけるセマンティックプライバシリスクを分析するライフサイクル中心のフレームワークを提案する。
我々は、鍵攻撃ベクトルを分類し、差分プライバシー、埋め込み暗号化、エッジコンピューティング、未学習などの現在の防御がこれらの脅威にどのように対処しているかを評価する。
セマンティックリークの定量化、マルチモーダル入力の保護、生成品質との非識別性のバランス、プライバシー保護の透明性確保など、オープンな課題の概要をまとめて結論付けます。
論文 参考訳(メタデータ) (2025-06-30T08:08:15Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - HOPE: Homomorphic Order-Preserving Encryption for Outsourced Databases -- A Stateless Approach [1.1701842638497677]
Homomorphic OPE(Homomorphic OPE)は、クライアント側のストレージを排除し、クエリ実行中に追加のクライアントサーバ間のインタラクションを回避する新しいOPEスキームである。
我々は、広く受け入れられているIND-OCPAモデルの下で、HOPEの正式な暗号解析を行い、その安全性を証明した。
論文 参考訳(メタデータ) (2024-11-26T00:38:46Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - EmojiPrompt: Generative Prompt Obfuscation for Privacy-Preserving Communication with Cloud-based LLMs [34.77734655124251]
EmojiPromptは生成変換を行い、言語的および非言語的要素を持つプロンプト内でプライベートデータを難読化する。
さまざまなドメインから8つのデータセットにまたがるEmojiPromptの性能を評価した。
EmojiPromptの原子レベルの難読化により、クラウドベースのLCMでのみ機能する。
論文 参考訳(メタデータ) (2024-02-08T17:57:11Z) - SentinelLMs: Encrypted Input Adaptation and Fine-tuning of Language
Models for Private and Secure Inference [6.0189674528771]
本稿では、ディープラーニングモデルに関連するプライバシとセキュリティの問題に対処する。
ディープニューラルネットワークモデルは、現代のAIベースの様々なアプリケーションにおいて重要なコンポーネントとして機能する。
パスキー暗号化されたユーザ固有テキストに対して,トランスフォーマーに基づく言語モデルを適応し,微調整する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-28T19:55:11Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。