論文の概要: An Empirical Study of Vulnerable Package Dependencies in LLM Repositories
- arxiv url: http://arxiv.org/abs/2508.21417v1
- Date: Fri, 29 Aug 2025 08:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.967501
- Title: An Empirical Study of Vulnerable Package Dependencies in LLM Repositories
- Title(参考訳): LLMレポジトリの脆弱性パッケージ依存性に関する実証的研究
- Authors: Shuhan Liu, Xing Hu, Xin Xia, David Lo, Xiaohu Yang,
- Abstract要約: 大型言語モデル(LLM)はパッケージ管理システムからの外部コード依存に依存している。
依存関係の脆弱性は、LSMをセキュリティリスクに晒すことができる。
LLMエコシステムの脆弱性の半分は56.2ヶ月以上も公表されていない。
- 参考スコア(独自算出の注目度): 14.817045028745563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have developed rapidly in recent years, revolutionizing various fields. Despite their widespread success, LLMs heavily rely on external code dependencies from package management systems, creating a complex and interconnected LLM dependency supply chain. Vulnerabilities in dependencies can expose LLMs to security risks. While existing research predominantly focuses on model-level security threats, vulnerabilities within the LLM dependency supply chain have been overlooked. To fill this gap, we conducted an empirical analysis of 52 open-source LLMs, examining their third-party dependencies and associated vulnerabilities. We then explored activities within the LLM repositories to understand how maintainers manage third-party vulnerabilities in practice. Finally, we compared third-party dependency vulnerabilities in the LLM ecosystem to those in the Python ecosystem. Our results show that half of the vulnerabilities in the LLM ecosystem remain undisclosed for more than 56.2 months, significantly longer than those in the Python ecosystem. Additionally, 75.8% of LLMs include vulnerable dependencies in their configuration files. This study advances the understanding of LLM supply chain risks, provides insights for practitioners, and highlights potential directions for improving the security of the LLM supply chain.
- Abstract(参考訳): 大規模言語モデル(LLM)は近年急速に発展し、様々な分野に革命をもたらした。
広く成功したにもかかわらず、LLMはパッケージ管理システムからの外部コード依存に大きく依存しており、複雑で相互接続されたLLM依存性サプライチェーンを形成している。
依存関係の脆弱性は、LSMをセキュリティリスクに晒すことができる。
既存の研究は主にモデルレベルのセキュリティ脅威に焦点を当てているが、LCM依存サプライチェーン内の脆弱性は見過ごされている。
このギャップを埋めるために、52のオープンソースLCMの実証分析を行い、それらのサードパーティの依存関係と関連する脆弱性を調査した。
次に、保守担当者が実際にサードパーティの脆弱性を管理する方法を理解するために、LLMリポジトリ内のアクティビティを調査しました。
最後に、LLMエコシステムのサードパーティの依存性脆弱性とPythonエコシステムの脆弱性を比較した。
我々の結果は、LLMエコシステムの脆弱性の半分が56.2ヶ月以上も非公開であり、Pythonエコシステムの脆弱性よりもかなり長いことを示しています。
加えて、75.8%のLLMは、構成ファイルに脆弱な依存関係を含む。
本研究は, LLMサプライチェーンのリスクの理解を深め, 実践者への洞察を与え, LLMサプライチェーンの安全性向上に向けた潜在的方向性を明らかにする。
関連論文リスト
- Understanding the Supply Chain and Risks of Large Language Model Applications [25.571274158366563]
本稿では,LLM(Large Language Models)サプライチェーンセキュリティの分析とベンチマークを行うための,最初の包括的なデータセットを紹介する。
実世界のLLMアプリケーション3,859件を収集し,相互依存解析を行い,109,211モデル,2,474データセット,9,862ライブラリを同定した。
以上の結果から,LLMアプリケーションへの依存性が深く,サプライチェーン全体の重大な脆弱性が指摘され,包括的セキュリティ分析の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2025-07-24T05:30:54Z) - Large Language Model Supply Chain: Open Problems From the Security Perspective [25.320736806895976]
大規模言語モデル(LLM)はソフトウェア開発パラダイムを変えつつあり、学術と産業の両方から大きな注目を集めています。
各コンポーネントの潜在的なセキュリティリスクとLCM SCのコンポーネント間の統合について議論する第一歩を踏み出します。
論文 参考訳(メタデータ) (2024-11-03T15:20:21Z) - Lifting the Veil on Composition, Risks, and Mitigations of the Large Language Model Supply Chain [6.478930807409979]
大規模言語モデル(LLM)は、インテリジェンスと生産性の両方に重大な影響を与えている。
我々は、リスクタイプ、リスク行動、および異なる利害関係者間の対応する緩和を含む構造化された分類法を開発する。
論文 参考訳(メタデータ) (2024-10-28T17:02:12Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Prompt Leakage effect and defense strategies for multi-turn LLM interactions [95.33778028192593]
システムプロンプトの漏洩は知的財産を侵害し、攻撃者に対する敵の偵察として機能する可能性がある。
我々は, LLM sycophancy 効果を利用して, 平均攻撃成功率 (ASR) を17.7%から86.2%に高めるユニークな脅威モデルを構築した。
7つのブラックボックス防衛戦略の緩和効果と、漏洩防止のためのオープンソースモデルを微調整する。
論文 参考訳(メタデータ) (2024-04-24T23:39:58Z) - Uncovering Safety Risks of Large Language Models through Concept Activation Vector [13.804245297233454]
大規模言語モデル(LLM)に対する攻撃を誘導する安全概念活性化ベクトル(SCAV)フレームワークについて紹介する。
そこで我々は,攻撃プロンプトと埋め込みレベルの攻撃の両方を生成できるSCAV誘導攻撃法を開発した。
本手法は,トレーニングデータが少なくなるとともに,攻撃成功率と応答品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T09:46:25Z) - A New Era in LLM Security: Exploring Security Concerns in Real-World
LLM-based Systems [47.18371401090435]
我々は,LLMではなく,Large Language Model(LLM)システムのセキュリティを分析する。
我々は,多層・多段階のアプローチを提案し,これを最先端のOpenAI GPT4に適用する。
OpenAI GPT4は安全機能を改善するために多くの安全制約を設計しているが、これらの安全制約は攻撃者に対して脆弱である。
論文 参考訳(メタデータ) (2024-02-28T19:00:12Z) - Risk Taxonomy, Mitigation, and Assessment Benchmarks of Large Language
Model Systems [29.828997665535336]
大規模言語モデル(LLM)は、多様な自然言語処理タスクを解く上で強力な能力を持つ。
しかし、LLMシステムの安全性とセキュリティの問題は、その広範な応用にとって大きな障害となっている。
本稿では,LLMシステムの各モジュールに関連する潜在的なリスクを体系的に分析する包括的分類法を提案する。
論文 参考訳(メタデータ) (2024-01-11T09:29:56Z) - Do-Not-Answer: A Dataset for Evaluating Safeguards in LLMs [59.596335292426105]
本稿では,大規模な言語モデルにおけるセーフガードを評価するための,最初のオープンソースデータセットを収集する。
我々は、自動安全性評価において、GPT-4に匹敵する結果を得るために、BERTライクな分類器をいくつか訓練する。
論文 参考訳(メタデータ) (2023-08-25T14:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。