論文の概要: RemoteRAG: A Privacy-Preserving LLM Cloud RAG Service
- arxiv url: http://arxiv.org/abs/2412.12775v1
- Date: Tue, 17 Dec 2024 10:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:11.876364
- Title: RemoteRAG: A Privacy-Preserving LLM Cloud RAG Service
- Title(参考訳): RemoteRAG: プライバシ保護のLLMクラウドRAGサービス
- Authors: Yihang Cheng, Lan Zhang, Junyang Wang, Mu Yuan, Yunhao Yao,
- Abstract要約: ユーザクエリを保護するために、プライバシ保護クラウドRAGサービスを正式に定義したのは、当社が初めてです。
プライバシに関しては、ユーザクエリのプライバシリークと関連するドキュメントからのリークを特徴付けるために、$(n,epsilon)$-DistanceDPを導入します。
効率を上げるために、全文書から、$(n,epsilon)$-DistanceDPから生成される摂動埋め込みに関連する少数の選択された文書まで、検索範囲を限定する。
- 参考スコア(独自算出の注目度): 10.383191657228826
- License:
- Abstract: Retrieval-augmented generation (RAG) improves the service quality of large language models by retrieving relevant documents from credible literature and integrating them into the context of the user query. Recently, the rise of the cloud RAG service has made it possible for users to query relevant documents conveniently. However, directly sending queries to the cloud brings potential privacy leakage. In this paper, we are the first to formally define the privacy-preserving cloud RAG service to protect the user query and propose RemoteRAG as a solution regarding privacy, efficiency, and accuracy. For privacy, we introduce $(n,\epsilon)$-DistanceDP to characterize privacy leakage of the user query and the leakage inferred from relevant documents. For efficiency, we limit the search range from the total documents to a small number of selected documents related to a perturbed embedding generated from $(n,\epsilon)$-DistanceDP, so that computation and communication costs required for privacy protection significantly decrease. For accuracy, we ensure that the small range includes target documents related to the user query with detailed theoretical analysis. Experimental results also demonstrate that RemoteRAG can resist existing embedding inversion attack methods while achieving no loss in retrieval under various settings. Moreover, RemoteRAG is efficient, incurring only $0.67$ seconds and $46.66$KB of data transmission ($2.72$ hours and $1.43$ GB with the non-optimized privacy-preserving scheme) when retrieving from a total of $10^6$ documents.
- Abstract(参考訳): Retrieval-augmented Generation (RAG)は、関連するドキュメントを信頼できる文献から取得し、ユーザクエリのコンテキストに統合することにより、大規模言語モデルのサービス品質を改善する。
近年,クラウドRAGサービスの台頭により,ユーザが関連ドキュメントを便利に問い合わせることが可能になった。
しかし、クラウドに直接クエリを送信すると、潜在的にプライバシーが漏洩する可能性がある。
本稿では、ユーザクエリを保護するためにプライバシ保護クラウドRAGサービスを正式に定義し、プライバシ、効率、正確性に関するソリューションとしてRemoteRAGを提案する。
プライバシに関しては、ユーザクエリのプライバシリークと関連するドキュメントからのリークを特徴付けるために、$(n,\epsilon)$-DistanceDPを導入します。
効率の面では、全文書から、$(n,\epsilon)$-DistanceDPから発生する摂動埋め込みに関連する少数の文書まで、検索範囲を制限し、プライバシ保護に必要な計算コストと通信コストを著しく削減する。
精度向上のために,ユーザクエリに関連するターゲット文書と,詳細な理論的解析を行う。
実験の結果、RemoteRAGは既存の埋め込み反転攻撃手法に抵抗できるが、様々な条件下での検索の損失は生じないことがわかった。
さらに、RemoteRAGは効率が良く、合計10^6$ドキュメントから検索すると、0.67$秒と46.66$KBのデータ転送(2.72$時間と1.43$GBの非最適化プライバシ保存方式)しか得られない。
関連論文リスト
- Dataset Protection via Watermarked Canaries in Retrieval-Augmented LLMs [67.0310240737424]
本稿では,テキストデータセットの所有権を保護し,RA-LLMによる不正使用を効果的に検出するための新しいアプローチを提案する。
提案手法では,IPデータセットに特別に設計されたカナリア文書を挿入することにより,元のデータを完全に変更することなく保護する。
検出プロセス中、カナリア文書をクエリし、RA-LLMの応答を分析することにより、不正使用を識別する。
論文 参考訳(メタデータ) (2025-02-15T04:56:45Z) - Riddle Me This! Stealthy Membership Inference for Retrieval-Augmented Generation [18.098228823748617]
本稿では,RAGデータストア内の文書を対象としたメンバシップ推論手法であるInterrogation Attack (IA)を提案する。
ステルス性を維持しながら、たった30クエリで推論に成功したことを実証します。
我々は,様々なRAG構成に対する事前推論攻撃に対して,TPR@1%FPRの2倍の改善が観察された。
論文 参考訳(メタデータ) (2025-02-01T04:01:18Z) - MAIN-RAG: Multi-Agent Filtering Retrieval-Augmented Generation [34.66546005629471]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに不可欠なツールであるが、時代遅れや誤った情報の生成に悩まされることが多い。
Retrieval-Augmented Generation (RAG)は、外部のリアルタイム情報検索をLLM応答に組み込むことでこの問題に対処する。
この問題に対処するため,マルチエージェントフィルタ検索検索生成(MAIN-RAG)を提案する。
MAIN-RAGはトレーニング不要なRAGフレームワークで、複数のLCMエージェントを利用して検索した文書のフィルタリングとスコア付けを行う。
論文 参考訳(メタデータ) (2024-12-31T08:07:26Z) - Privacy-Preserving Retrieval Augmented Generation with Differential Privacy [25.896416088293908]
検索拡張生成(RAG)は、外部知識ソースから直接関連する情報を提供することで、大規模言語モデル(LLM)を支援する。
RAGは、外部データソースから機密情報を漏洩するリスクを出力する。
本研究では、データプライバシの正式な保証である差分プライバシ(DP)の下でRAGを探索する。
論文 参考訳(メタデータ) (2024-12-06T01:20:16Z) - RA-WEBs: Remote Attestation for WEB services [1.3445048453161086]
TEEは、このような脅威からデータやコードを保護するセキュアな環境を作成することで、有望なソリューションを提供する。
重要な機能のひとつは、TEEの完全性検証を可能にするリモート検証(RA)である。
我々は、現在のWebエコシステムとの高互換性のために設計された新しいRAプロトコルである、$textttRA-WEBs$$$textbfR$emote $textbfA$ttestation for $textbfWeb$ $textbfs$ervicesを提案する。
論文 参考訳(メタデータ) (2024-11-02T18:46:58Z) - Optimizing Query Generation for Enhanced Document Retrieval in RAG [53.10369742545479]
大規模言語モデル(LLM)は様々な言語タスクに優れるが、しばしば誤った情報を生成する。
Retrieval-Augmented Generation (RAG) は、正確な応答に文書検索を使用することによってこれを緩和することを目的としている。
論文 参考訳(メタデータ) (2024-07-17T05:50:32Z) - $\texttt{MixGR}$: Enhancing Retriever Generalization for Scientific Domain through Complementary Granularity [88.78750571970232]
本稿では,クエリ文書マッチングに対する高密度検索者の認識を改善するために,$texttMixGR$を紹介する。
$texttMixGR$は、粒度に基づくさまざまなメトリクスを統合スコアに融合させ、包括的なクエリドキュメントの類似性を反映させる。
論文 参考訳(メタデータ) (2024-07-15T13:04:09Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - Local Differentially Private Heavy Hitter Detection in Data Streams with Bounded Memory [31.652076018162507]
本稿では,厳密な局所差分プライバシー(LDP)保護を図りながら,メモリ使用量によるTop-k$アイテム検出を実現するための新しいフレームワークHG-LDPを提案する。
提案手法が精度・プライバシ・メモリ効率のトレードオフに優れていることを示すため,合成データセットと実世界のデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-27T18:28:15Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。