論文の概要: An Empirical Study on the Security Vulnerabilities of GPTs
- arxiv url: http://arxiv.org/abs/2512.00136v1
- Date: Fri, 28 Nov 2025 13:30:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.087993
- Title: An Empirical Study on the Security Vulnerabilities of GPTs
- Title(参考訳): GPTのセキュリティ脆弱性に関する実証的研究
- Authors: Tong Wu, Weibin Wu, Zibin Zheng,
- Abstract要約: GPTは、OpenAIの大規模言語モデルに基づいた、カスタマイズされたAIエージェントの一種である。
本稿では,GPTのセキュリティ脆弱性に関する実証的研究について述べる。
- 参考スコア(独自算出の注目度): 48.12756684275687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equipped with various tools and knowledge, GPTs, one kind of customized AI agents based on OpenAI's large language models, have illustrated great potential in many fields, such as writing, research, and programming. Today, the number of GPTs has reached three millions, with the range of specific expert domains becoming increasingly diverse. However, given the consistent framework shared among these LLM agent applications, systemic security vulnerabilities may exist and remain underexplored. To fill this gap, we present an empirical study on the security vulnerabilities of GPTs. Building upon prior research on LLM security, we first adopt a platform-user perspective to conduct a comprehensive attack surface analysis across different system components. Then, we design a systematic and multidimensional attack suite with the explicit objectives of information leakage and tool misuse based on the attack surface analysis, thereby concretely demonstrating the security vulnerabilities that various components of GPT-based systems face. Finally, we accordingly propose defense mechanisms to address the aforementioned security vulnerabilities. By increasing the awareness of these vulnerabilities and offering critical insights into their implications, this study seeks to facilitate the secure and responsible application of GPTs while contributing to developing robust defense mechanisms that protect users and systems against malicious attacks.
- Abstract(参考訳): さまざまなツールや知識を備えたGPTは,OpenAIの大規模言語モデルに基づいた,カスタマイズされたAIエージェントのひとつだ。
現在、GPTの数は300万に達し、特定の専門家ドメインの範囲が多様化している。
しかしながら、これらのLLMエージェントアプリケーション間で共有される一貫したフレームワークを考えると、システムセキュリティの脆弱性は存在し、未調査のままである。
このギャップを埋めるために,GPTのセキュリティ脆弱性に関する実証的研究を行った。
LLMのセキュリティに関する先行研究に基づいて、我々はまずプラットフォーム・ユーザ・パースペクティブを採用し、異なるシステム・コンポーネントにわたって包括的な攻撃面解析を行う。
そこで我々は,攻撃面解析に基づいて,情報漏洩とツール誤用という明確な目的を持った,系統的で多次元的な攻撃スイートを設計し,GPTベースのシステムの様々なコンポーネントが直面しているセキュリティ脆弱性を具体的に示す。
最後に,上記のセキュリティ脆弱性に対処するための防御機構を提案する。
本研究は,これらの脆弱性の認識を高め,その意義に関する重要な洞察を提供することによって,GPTの安全かつ責任ある適用を促進するとともに,ユーザやシステムに対する悪意ある攻撃から保護する堅牢な防御機構の開発に寄与することを目的とする。
関連論文リスト
- Security Analysis of Web Applications Based on Gruyere [4.188145506259564]
Gruyereは既知の脆弱性を分析する実験対象として採用されている。
特定の脆弱性に対する詳細な再現手順を提示し、包括的修復戦略を提案する。
発見によると、Gruyereの脆弱性は比較的時代遅れであるものの、その根底にある原則は、広範囲の現代のセキュリティ欠陥を説明することに非常に関係している。
論文 参考訳(メタデータ) (2025-09-18T07:52:06Z) - NeuroBreak: Unveil Internal Jailbreak Mechanisms in Large Language Models [68.09675063543402]
NeuroBreakは、ニューロンレベルの安全性メカニズムを分析し、脆弱性を軽減するために設計されたトップダウンのジェイルブレイク分析システムである。
レイヤワイドな表現探索分析を取り入れることで、NeuroBreakはモデルの意思決定プロセスに関する新たな視点を提供する。
本システムの有効性を検証するために,定量的評価とケーススタディを実施している。
論文 参考訳(メタデータ) (2025-09-04T08:12:06Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - A Comprehensive Survey of Unmanned Aerial Systems' Risks and Mitigation Strategies [3.636441947326793]
この調査では、UAVデプロイメントのいくつかのフェーズで、サイバーセキュリティの脆弱性を要約する。
我々は、UASドメインに適用されるUAS特化戦略と非UAS特化戦略の両方について分析を行う。
関連するサイバーセキュリティ基準とその勧告をUASの文脈で提示する。
論文 参考訳(メタデータ) (2025-06-12T03:30:19Z) - A Large-Scale Empirical Analysis of Custom GPTs' Vulnerabilities in the OpenAI Ecosystem [5.455788617334495]
我々は、14,904個のカスタムGPTを分析し、7つの悪用可能な脅威に対する感受性を評価する。
以上の結果から,95%以上のカスタムGPTには適切なセキュリティ保護が欠如していることが判明した。
これらの結果は、セキュリティ対策の強化とコンテンツモデレーションの厳格化に対する緊急の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-13T00:51:07Z) - ChatNVD: Advancing Cybersecurity Vulnerability Assessment with Large Language Models [0.46873264197900916]
ChatNVDはLarge Language Models(LLM)を利用したサポートツールで、ソフトウェア脆弱性のアクセス可能でコンテキストに富んだ要約を生成する。
我々は,OpenAIによるGPT-4o Mini,MetaによるLLaMA 3,GoogleによるGemini 1.5 Proの3つの著名なLCMを利用して,ChatNVDの3つの変種を開発した。
その結果、GPT-4o Miniは他のモデルよりも優れており、92%以上の精度と低いエラー率を実現していることがわかった。
論文 参考訳(メタデータ) (2024-12-06T03:45:49Z) - Mapping LLM Security Landscapes: A Comprehensive Stakeholder Risk Assessment Proposal [0.0]
本稿では,従来のシステムにおけるリスク評価手法のようなツールを用いたリスク評価プロセスを提案する。
我々は、潜在的な脅威要因を特定し、脆弱性要因に対して依存するシステムコンポーネントをマッピングするためのシナリオ分析を行う。
3つの主要株主グループに対する脅威もマップ化しています。
論文 参考訳(メタデータ) (2024-03-20T05:17:22Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。