論文の概要: Security study based on the Chatgptplugin system: ldentifying Security Vulnerabilities
- arxiv url: http://arxiv.org/abs/2507.21128v2
- Date: Sun, 17 Aug 2025 03:40:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.177683
- Title: Security study based on the Chatgptplugin system: ldentifying Security Vulnerabilities
- Title(参考訳): Chatgptpluginシステムに基づくセキュリティ研究:セキュリティ脆弱性の集中化
- Authors: Ruomai Ren,
- Abstract要約: ChatGPTは大規模言語モデリングプラットフォームとして人気を博し、プラグインシステムも徐々に発展しつつある。
本研究の目的は、ChatGPTプラグインショップのプラグインのセキュリティを分析し、主要なセキュリティ脆弱性を明らかにし、それに対応する改善を提案することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plugin systems are a class of external programmes that provide users with a wide range of functionality, and while they enhance the user experience, their security is always a challenge. Especially due to the diversity and complexity of developers, many plugin systems lack adequate regulation. As ChatGPT has become a popular large-scale language modelling platform, its plugin system is also gradually developing, and the open platform provides creators with the opportunity to upload plugins covering a wide range of application scenarios. However, current research and discussions mostly focus on the security issues of the ChatGPT model itself, while ignoring the possible security risks posed by the plugin system. This study aims to analyse the security of plugins in the ChatGPT plugin shop, reveal its major security vulnerabilities, and propose corresponding improvements.
- Abstract(参考訳): プラグインシステムは、ユーザに対して幅広い機能を提供する外部プログラムのクラスであり、ユーザエクスペリエンスを向上させる一方で、セキュリティは常に課題である。
特に開発者の多様性と複雑さのため、多くのプラグインシステムは適切な規制を欠いている。
ChatGPTは大規模な言語モデリングプラットフォームとして人気を博し、プラグインシステムも徐々に開発され、オープンプラットフォームは、幅広いアプリケーションシナリオをカバーするプラグインをアップロードする機会をクリエーターに提供する。
しかし、現在の研究と議論は、主にChatGPTモデル自体のセキュリティ問題に焦点を当て、プラグインシステムによって引き起こされるセキュリティリスクを無視している。
本研究の目的は、ChatGPTプラグインショップのプラグインのセキュリティを分析し、主要なセキュリティ脆弱性を明らかにし、それに対応する改善を提案することである。
関連論文リスト
- Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - Enabling Security on the Edge: A CHERI Compartmentalized Network Stack [42.78181795494584]
CHERIは、きめ細かい区画化とメモリ保護を可能にすることにより、ハードウェアレベルでの強力なセキュリティを提供する。
ケーススタディでは,Arm Morelloプラットフォーム上にデプロイされたCheriBSDシステム上での分離アプリケーション,TCP/IPライブラリ,ネットワークドライバのトレードオフについて検討した。
論文 参考訳(メタデータ) (2025-07-07T09:37:59Z) - Progent: Programmable Privilege Control for LLM Agents [46.49787947705293]
LLMエージェントの最初の特権制御機構であるProgentを紹介する。
コアとなるのは、エージェント実行中に適用される権限制御ポリシを柔軟に表現するためのドメイン固有言語である。
これにより、エージェント開発者とユーザは、特定のユースケースに対して適切なポリシーを作成し、セキュリティを保証するために決定的にそれらを強制することができる。
論文 参考訳(メタデータ) (2025-04-16T01:58:40Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - Human-Readable Adversarial Prompts: An Investigation into LLM Vulnerabilities Using Situational Context [45.821481786228226]
本研究では,状況文脈を利用した状況駆動型逆転フルプロンプトが効果的であるが,検出がはるかに困難であることを示す。
映画脚本を状況的文脈の枠組みとして利用する攻撃を開発した。
我々は, p-核サンプリングによるAdvPrompterフレームワークを拡張し, 多様な可読テキストを生成する。
論文 参考訳(メタデータ) (2024-12-20T21:43:52Z) - Exploring ChatGPT App Ecosystem: Distribution, Deployment and Security [3.0924093890016904]
ChatGPTは、サードパーティ開発者がChatGPTの機能を拡張するプラグインを作成することを可能にする。
われわれはChatGPTアプリのエコシステムを総合的に調査し、研究コミュニティの景観を照らすことを目的としている。
ChatGPTプラグインの間に不均一な機能の分布が発見され、広く普及し、新たなトピックが浮かび上がっています。
論文 参考訳(メタデータ) (2024-08-26T15:31:58Z) - Evaluating the Language-Based Security for Plugin Development [0.0]
我々は,プラグインのアクセス制御脆弱性の理解を深め,効果的なセキュリティ対策を検討することを目的としている。
一般的な開発環境におけるセキュリティメカニズムを評価するために,テストプラグインを開発し,評価した。
アクセス制御脆弱性に対処する能力ベースシステムの有効性を評価するために比較分析を行った。
論文 参考訳(メタデータ) (2024-05-13T03:12:24Z) - Opening A Pandora's Box: Things You Should Know in the Era of Custom GPTs [27.97654690288698]
我々はOpenAIによるカスタムGPTプラットフォームから生じるセキュリティとプライバシの問題を包括的に分析する。
本研究は,攻撃シナリオを悪質なアクターの役割に基づいた3つの脅威モデルに分類する。
我々は26の潜在的な攻撃ベクトルを特定し、19は実世界の環境で部分的にまたは完全に検証されている。
論文 参考訳(メタデータ) (2023-12-31T16:49:12Z) - Exploring the Limits of ChatGPT in Software Security Applications [29.829574588773486]
大規模言語モデル(LLM)は急速な進化を遂げ、近年は顕著な成果を上げている。
OpenAIのChatGPTは、幅広いタスクにまたがる強力な能力のために、すぐに人気を得た。
論文 参考訳(メタデータ) (2023-12-08T03:02:37Z) - LLM Platform Security: Applying a Systematic Evaluation Framework to OpenAI's ChatGPT Plugins [31.678328189420483]
大規模言語モデル(LLM)プラットフォームは先頃,インターネット上のサードパーティサービスとインターフェースするアプリエコシステムの提供を開始した。
これらのアプリはLLMプラットフォームの機能を拡張しているが、任意のサードパーティによって開発されており、暗黙的に信頼できない。
LLMプラットフォーム設計者のための基盤を築き,現在および将来のサードパーティのLDMプラットフォームのセキュリティ,プライバシ,安全性を解析し,改善するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-19T02:20:10Z) - Prompt-Enhanced Software Vulnerability Detection Using ChatGPT [9.35868869848051]
GPTのような大規模言語モデル(LLM)は、その驚くべき知性のためにかなりの注目を集めている。
本稿では,ChatGPTを用いたソフトウェア脆弱性検出の性能について検討する。
論文 参考訳(メタデータ) (2023-08-24T10:30:33Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。