論文の概要: When GPT Spills the Tea: Comprehensive Assessment of Knowledge File Leakage in GPTs
- arxiv url: http://arxiv.org/abs/2506.00197v1
- Date: Fri, 30 May 2025 20:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.49374
- Title: When GPT Spills the Tea: Comprehensive Assessment of Knowledge File Leakage in GPTs
- Title(参考訳): GPTが茶を吐き出すとき: GPTにおける知識ファイル漏洩の包括的評価
- Authors: Xinyue Shen, Yun Shen, Michael Backes, Yang Zhang,
- Abstract要約: データセキュリティ姿勢管理(DSPM)にインスパイアされた新しいワークフローを活用することで、知識ファイル漏洩の包括的リスク評価を行う。
651,022 GPTメタデータ,11,820フロー,1,466応答の解析により,5つのリークベクトルを同定した。
これらのベクトルにより、敵はタイトル、コンテンツ、タイプ、サイズといった機密性の高い知識ファイルデータを抽出できる。
- 参考スコア(独自算出の注目度): 39.885773438374095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge files have been widely used in large language model (LLM) agents, such as GPTs, to improve response quality. However, concerns about the potential leakage of knowledge files have grown significantly. Existing studies demonstrate that adversarial prompts can induce GPTs to leak knowledge file content. Yet, it remains uncertain whether additional leakage vectors exist, particularly given the complex data flows across clients, servers, and databases in GPTs. In this paper, we present a comprehensive risk assessment of knowledge file leakage, leveraging a novel workflow inspired by Data Security Posture Management (DSPM). Through the analysis of 651,022 GPT metadata, 11,820 flows, and 1,466 responses, we identify five leakage vectors: metadata, GPT initialization, retrieval, sandboxed execution environments, and prompts. These vectors enable adversaries to extract sensitive knowledge file data such as titles, content, types, and sizes. Notably, the activation of the built-in tool Code Interpreter leads to a privilege escalation vulnerability, enabling adversaries to directly download original knowledge files with a 95.95% success rate. Further analysis reveals that 28.80% of leaked files are copyrighted, including digital copies from major publishers and internal materials from a listed company. In the end, we provide actionable solutions for GPT builders and platform providers to secure the GPT data supply chain.
- Abstract(参考訳): GPTのような大規模言語モデル(LLM)エージェントでは、応答品質を改善するために知識ファイルが広く使われている。
しかし,知識ファイルの漏洩に関する懸念は急速に高まっている。
既存の研究では、相手のプロンプトがGPTを誘導し、知識ファイルの内容を漏洩させることが示されている。
しかし、特にGPT内のクライアント、サーバ、データベースにまたがる複雑なデータの流れを考えると、さらなるリークベクトルが存在するかどうかは不明だ。
本稿では,Data Security Posture Management (DSPM) にインスパイアされた新しいワークフローを活用することで,知識ファイル漏洩の包括的リスク評価を行う。
651,022 GPTメタデータ,11,820フロー,1,466応答の解析により,メタデータ,GPT初期化,検索,サンドボックス実行環境,プロンプトの5つのリークベクトルを同定した。
これらのベクトルにより、敵はタイトル、コンテンツ、タイプ、サイズといった機密性の高い知識ファイルデータを抽出できる。
ビルトインツールのCode Interpreterのアクティベートにより特権エスカレーションの脆弱性が発生し、相手は95.95%の成功率で元の知識ファイルを直接ダウンロードできる。
さらなる分析によると、漏洩したファイルの28.80%が著作権で保護されており、その中には大手出版社のデジタルコピーや上場企業の内部資料も含まれている。
最終的に、私たちはGPTデータサプライチェーンを確保するために、GPTビルダーとプラットフォームプロバイダに実行可能なソリューションを提供します。
関連論文リスト
- Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - Detecting Hard-Coded Credentials in Software Repositories via LLMs [0.0]
ソフトウェア開発者は、パスワード、ジェネリックシークレット、プライベートキー、ソフトウェアリポジトリのジェネリックトークンなどの認証情報をハードコードすることが多い。
これらの認証は、潜在的な敵によって悪用され、バックドア攻撃のような悪意ある攻撃を行うために攻撃面を生成する。
最近の検出では、埋め込みモデルを用いてテキスト認証をベクトル化し、予測のために分類器に渡す。
我々のモデルは、ベンチマークデータセットのF1測定値において、現在の最先端よりも13%優れています。
論文 参考訳(メタデータ) (2025-06-16T04:33:48Z) - Privacy and Security Threat for OpenAI GPTs [0.0]
OpenAIが2023年11月にリリースされて以来、300万以上のカスタムGPTが作成されている。
ディベロッパにとって、命令漏洩攻撃はカスタムGPTにおける命令の知的特性を脅かす。
ユーザにとって、カスタムのGPTや統合されたサードパーティサービスによる不要なデータアクセス行動は、重要なプライバシー上の懸念を引き起こす。
論文 参考訳(メタデータ) (2025-06-04T14:58:29Z) - A Large-Scale Empirical Analysis of Custom GPTs' Vulnerabilities in the OpenAI Ecosystem [5.455788617334495]
我々は、14,904個のカスタムGPTを分析し、7つの悪用可能な脅威に対する感受性を評価する。
以上の結果から,95%以上のカスタムGPTには適切なセキュリティ保護が欠如していることが判明した。
これらの結果は、セキュリティ対策の強化とコンテンツモデレーションの厳格化に対する緊急の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-13T00:51:07Z) - Information-Guided Identification of Training Data Imprint in (Proprietary) Large Language Models [52.439289085318634]
情報誘導プローブを用いて,プロプライエタリな大規模言語モデル (LLM) で知られているトレーニングデータを識別する方法を示す。
我々の研究は、重要な観察の上に成り立っている: 高次数テキストパスは、暗記プローブにとって良い検索材料である。
論文 参考訳(メタデータ) (2025-03-15T10:19:15Z) - Dataset Protection via Watermarked Canaries in Retrieval-Augmented LLMs [67.0310240737424]
本稿では,テキストデータセットの所有権を保護し,RA-LLMによる不正使用を効果的に検出するための新しいアプローチを提案する。
提案手法では,IPデータセットに特別に設計されたカナリア文書を挿入することにより,元のデータを完全に変更することなく保護する。
検出プロセス中、カナリア文書をクエリし、RA-LLMの応答を分析することにより、不正使用を識別する。
論文 参考訳(メタデータ) (2025-02-15T04:56:45Z) - Detection of LLM-Generated Java Code Using Discretized Nested Bigrams [0.0]
我々は,様々なサイズのソースコード群に対して,離散化ネステッドビグラムの周波数特性を新たに提案する。
従来の作業と比較して、高密度な会員ビンでスパース情報を表現することで改善が得られる。
提案手法は,76,089ファイルに対して99%の精度と0.999のAUCを達成し,GPT 4oを227個の特徴量で1,000以上の著者を対象とする。
論文 参考訳(メタデータ) (2025-02-07T14:32:20Z) - Follow My Instruction and Spill the Beans: Scalable Data Extraction from Retrieval-Augmented Generation Systems [22.142588104314175]
Retrieval-In-Context RAG Language Models (LMs) におけるデータストアリークのリスクについて検討する。
敵はLMの命令追従機能を利用してデータストアからテキストデータを簡単に抽出できることを示す。
ランダムに選択された25個のGPTに対して、100%の成功率でデータストアリークを引き起こす攻撃を設計する。
論文 参考訳(メタデータ) (2024-02-27T19:08:05Z) - GPTScan: Detecting Logic Vulnerabilities in Smart Contracts by Combining GPT with Program Analysis [26.081673382969615]
本稿では,GPTと静的解析を組み合わせたGPTScanを提案する。
各ロジックの脆弱性タイプをシナリオとプロパティに分割することで、GPTScanは候補の脆弱性とGPTをマッチさせる。
人間の監査官が見逃した9つの新たな脆弱性を含む70%以上のリコールで、地上の真実的ロジックの脆弱性を効果的に検出する。
論文 参考訳(メタデータ) (2023-08-07T05:48:53Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。