論文の概要: When GPT Spills the Tea: Comprehensive Assessment of Knowledge File Leakage in GPTs
- arxiv url: http://arxiv.org/abs/2506.00197v1
- Date: Fri, 30 May 2025 20:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.49374
- Title: When GPT Spills the Tea: Comprehensive Assessment of Knowledge File Leakage in GPTs
- Title(参考訳): GPTが茶を吐き出すとき: GPTにおける知識ファイル漏洩の包括的評価
- Authors: Xinyue Shen, Yun Shen, Michael Backes, Yang Zhang,
- Abstract要約: データセキュリティ姿勢管理(DSPM)にインスパイアされた新しいワークフローを活用することで、知識ファイル漏洩の包括的リスク評価を行う。
651,022 GPTメタデータ,11,820フロー,1,466応答の解析により,5つのリークベクトルを同定した。
これらのベクトルにより、敵はタイトル、コンテンツ、タイプ、サイズといった機密性の高い知識ファイルデータを抽出できる。
- 参考スコア(独自算出の注目度): 39.885773438374095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge files have been widely used in large language model (LLM) agents, such as GPTs, to improve response quality. However, concerns about the potential leakage of knowledge files have grown significantly. Existing studies demonstrate that adversarial prompts can induce GPTs to leak knowledge file content. Yet, it remains uncertain whether additional leakage vectors exist, particularly given the complex data flows across clients, servers, and databases in GPTs. In this paper, we present a comprehensive risk assessment of knowledge file leakage, leveraging a novel workflow inspired by Data Security Posture Management (DSPM). Through the analysis of 651,022 GPT metadata, 11,820 flows, and 1,466 responses, we identify five leakage vectors: metadata, GPT initialization, retrieval, sandboxed execution environments, and prompts. These vectors enable adversaries to extract sensitive knowledge file data such as titles, content, types, and sizes. Notably, the activation of the built-in tool Code Interpreter leads to a privilege escalation vulnerability, enabling adversaries to directly download original knowledge files with a 95.95% success rate. Further analysis reveals that 28.80% of leaked files are copyrighted, including digital copies from major publishers and internal materials from a listed company. In the end, we provide actionable solutions for GPT builders and platform providers to secure the GPT data supply chain.
- Abstract(参考訳): GPTのような大規模言語モデル(LLM)エージェントでは、応答品質を改善するために知識ファイルが広く使われている。
しかし,知識ファイルの漏洩に関する懸念は急速に高まっている。
既存の研究では、相手のプロンプトがGPTを誘導し、知識ファイルの内容を漏洩させることが示されている。
しかし、特にGPT内のクライアント、サーバ、データベースにまたがる複雑なデータの流れを考えると、さらなるリークベクトルが存在するかどうかは不明だ。
本稿では,Data Security Posture Management (DSPM) にインスパイアされた新しいワークフローを活用することで,知識ファイル漏洩の包括的リスク評価を行う。
651,022 GPTメタデータ,11,820フロー,1,466応答の解析により,メタデータ,GPT初期化,検索,サンドボックス実行環境,プロンプトの5つのリークベクトルを同定した。
これらのベクトルにより、敵はタイトル、コンテンツ、タイプ、サイズといった機密性の高い知識ファイルデータを抽出できる。
ビルトインツールのCode Interpreterのアクティベートにより特権エスカレーションの脆弱性が発生し、相手は95.95%の成功率で元の知識ファイルを直接ダウンロードできる。
さらなる分析によると、漏洩したファイルの28.80%が著作権で保護されており、その中には大手出版社のデジタルコピーや上場企業の内部資料も含まれている。
最終的に、私たちはGPTデータサプライチェーンを確保するために、GPTビルダーとプラットフォームプロバイダに実行可能なソリューションを提供します。
関連論文リスト
- Information-Guided Identification of Training Data Imprint in (Proprietary) Large Language Models [52.439289085318634]
情報誘導プローブを用いて,プロプライエタリな大規模言語モデル (LLM) で知られているトレーニングデータを識別する方法を示す。
我々の研究は、重要な観察の上に成り立っている: 高次数テキストパスは、暗記プローブにとって良い検索材料である。
論文 参考訳(メタデータ) (2025-03-15T10:19:15Z) - Detection of LLM-Generated Java Code Using Discretized Nested Bigrams [0.0]
我々は,様々なサイズのソースコード群に対して,離散化ネステッドビグラムの周波数特性を新たに提案する。
従来の作業と比較して、高密度な会員ビンでスパース情報を表現することで改善が得られる。
提案手法は,76,089ファイルに対して99%の精度と0.999のAUCを達成し,GPT 4oを227個の特徴量で1,000以上の著者を対象とする。
論文 参考訳(メタデータ) (2025-02-07T14:32:20Z) - Follow My Instruction and Spill the Beans: Scalable Data Extraction from Retrieval-Augmented Generation Systems [22.142588104314175]
Retrieval-In-Context RAG Language Models (LMs) におけるデータストアリークのリスクについて検討する。
敵はLMの命令追従機能を利用してデータストアからテキストデータを簡単に抽出できることを示す。
ランダムに選択された25個のGPTに対して、100%の成功率でデータストアリークを引き起こす攻撃を設計する。
論文 参考訳(メタデータ) (2024-02-27T19:08:05Z) - GPTScan: Detecting Logic Vulnerabilities in Smart Contracts by Combining GPT with Program Analysis [26.081673382969615]
本稿では,GPTと静的解析を組み合わせたGPTScanを提案する。
各ロジックの脆弱性タイプをシナリオとプロパティに分割することで、GPTScanは候補の脆弱性とGPTをマッチさせる。
人間の監査官が見逃した9つの新たな脆弱性を含む70%以上のリコールで、地上の真実的ロジックの脆弱性を効果的に検出する。
論文 参考訳(メタデータ) (2023-08-07T05:48:53Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。