論文の概要: Understanding the Supply Chain and Risks of Large Language Model Applications
- arxiv url: http://arxiv.org/abs/2507.18105v1
- Date: Thu, 24 Jul 2025 05:30:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.016524
- Title: Understanding the Supply Chain and Risks of Large Language Model Applications
- Title(参考訳): 大規模言語モデルアプリケーションにおけるサプライチェーンとリスクの理解
- Authors: Yujie Ma, Lili Quan, Xiaofei Xie, Qiang Hu, Jiongchi Yu, Yao Zhang, Sen Chen,
- Abstract要約: 本稿では,LLM(Large Language Models)サプライチェーンセキュリティの分析とベンチマークを行うための,最初の包括的なデータセットを紹介する。
実世界のLLMアプリケーション3,859件を収集し,相互依存解析を行い,109,211モデル,2,474データセット,9,862ライブラリを同定した。
以上の結果から,LLMアプリケーションへの依存性が深く,サプライチェーン全体の重大な脆弱性が指摘され,包括的セキュリティ分析の必要性が浮き彫りになった。
- 参考スコア(独自算出の注目度): 25.571274158366563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of Large Language Models (LLMs) has led to the widespread deployment of LLM-based systems across diverse domains. As these systems proliferate, understanding the risks associated with their complex supply chains is increasingly important. LLM-based systems are not standalone as they rely on interconnected supply chains involving pretrained models, third-party libraries, datasets, and infrastructure. Yet, most risk assessments narrowly focus on model or data level, overlooking broader supply chain vulnerabilities. While recent studies have begun to address LLM supply chain risks, there remains a lack of benchmarks for systematic research. To address this gap, we introduce the first comprehensive dataset for analyzing and benchmarking LLM supply chain security. We collect 3,859 real-world LLM applications and perform interdependency analysis, identifying 109,211 models, 2,474 datasets, and 9,862 libraries. We extract model fine-tuning paths, dataset reuse, and library reliance, mapping the ecosystem's structure. To evaluate security, we gather 1,555 risk-related issues-50 for applications, 325 for models, 18 for datasets, and 1,229 for libraries from public vulnerability databases. Using this dataset, we empirically analyze component dependencies and risks. Our findings reveal deeply nested dependencies in LLM applications and significant vulnerabilities across the supply chain, underscoring the need for comprehensive security analysis. We conclude with practical recommendations to guide researchers and developers toward safer, more trustworthy LLM-enabled systems.
- Abstract(参考訳): LLM(Large Language Models)の台頭により、多様なドメインにまたがるLLMベースのシステムが広く展開されるようになった。
これらのシステムが増加するにつれて、複雑なサプライチェーンに関連するリスクを理解することがますます重要である。
LLMベースのシステムは、事前訓練されたモデル、サードパーティのライブラリ、データセット、インフラストラクチャを含む相互接続されたサプライチェーンに依存しているため、スタンドアロンではない。
しかし、ほとんどのリスクアセスメントは、より広範なサプライチェーンの脆弱性を見越して、モデルやデータレベルに焦点を絞っている。
近年、LSMサプライチェーンのリスクに対処する研究が始まっているが、体系的な研究のためのベンチマークが不足している。
このギャップに対処するために、LLMサプライチェーンセキュリティの分析とベンチマークを行うための、最初の包括的なデータセットを紹介します。
実世界のLLMアプリケーション3,859件を収集し,相互依存解析を行い,109,211モデル,2,474データセット,9,862ライブラリを同定した。
我々は、モデル微調整パス、データセットの再利用、ライブラリ依存を抽出し、エコシステムの構造をマッピングする。
セキュリティを評価するために、アプリケーションに1,555のリスク関連課題-50、モデルに325、データセットに18、パブリックな脆弱性データベースからライブラリに1,229を収集する。
このデータセットを使用して、コンポーネントの依存関係とリスクを経験的に分析します。
以上の結果から,LLMアプリケーションへの依存性が深く,サプライチェーン全体の重大な脆弱性が指摘され,包括的セキュリティ分析の必要性が浮き彫りになった。
我々は、研究者や開発者をより安全で信頼性の高いLCM対応システムへと導くための実践的な勧告で締めくくります。
関連論文リスト
- Drop the Golden Apples: Identifying Third-Party Reuse by DB-Less Software Composition Analysis [11.193453132177222]
現代のソフトウェア開発におけるサードパーティのライブラリ(TPL)は、重大なセキュリティとコンプライアンスのリスクをもたらす。
本稿では,DB-Lessソフトウェア構成分析(SCA)の最初のフレームワークを提案する。
Androidのネイティブライブラリ識別とC/C++のコピーベースのTPL再利用という2つの典型的なシナリオに関する実験は、SCAでデータベースレス戦略を実装する上で好都合な未来を実証した。
論文 参考訳(メタデータ) (2025-03-28T16:25:24Z) - Datenschutzkonformer LLM-Einsatz: Eine Open-Source-Referenzarchitektur [0.10713888959520207]
本稿では,オープンソース技術を用いたLCMベースのクローズドシステム開発のためのリファレンスアーキテクチャを提案する。
このアーキテクチャは、厳格なデータプライバシとセキュリティ要件を満たす、フレキシブルで透過的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-03-01T14:51:07Z) - LLMs in Software Security: A Survey of Vulnerability Detection Techniques and Insights [12.424610893030353]
大規模言語モデル(LLM)は、ソフトウェア脆弱性検出のためのトランスフォーメーションツールとして登場している。
本稿では,脆弱性検出におけるLSMの詳細な調査を行う。
言語間の脆弱性検出、マルチモーダルデータ統合、リポジトリレベルの分析といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-10T21:33:38Z) - Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Lifting the Veil on Composition, Risks, and Mitigations of the Large Language Model Supply Chain [6.478930807409979]
大規模言語モデル(LLM)は、インテリジェンスと生産性の両方に重大な影響を与えている。
我々は、リスクタイプ、リスク行動、および異なる利害関係者間の対応する緩和を含む構造化された分類法を開発する。
論文 参考訳(メタデータ) (2024-10-28T17:02:12Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - SafetyPrompts: a Systematic Review of Open Datasets for Evaluating and Improving Large Language Model Safety [27.843894102000608]
我々は、大規模言語モデル(LLM)の安全性を評価し改善するためのオープンデータセットの最初の体系的なレビューを行う。
完全な合成データセットへのトレンドや、非英語および自然主義データセットの明確な欠如など、データセットカバレッジのギャップといったトレンドを強調します。
当社のコントリビューションは,LLM安全性のためのオープンデータセットのリビングカタログであるSafetyPrompts.comに基づいています。
論文 参考訳(メタデータ) (2024-04-08T10:57:25Z) - A New Era in LLM Security: Exploring Security Concerns in Real-World
LLM-based Systems [47.18371401090435]
我々は,LLMではなく,Large Language Model(LLM)システムのセキュリティを分析する。
我々は,多層・多段階のアプローチを提案し,これを最先端のOpenAI GPT4に適用する。
OpenAI GPT4は安全機能を改善するために多くの安全制約を設計しているが、これらの安全制約は攻撃者に対して脆弱である。
論文 参考訳(メタデータ) (2024-02-28T19:00:12Z) - Self-Retrieval: End-to-End Information Retrieval with One Large Language Model [97.71181484082663]
本稿では,新たなLLM駆動情報検索アーキテクチャであるSelf-Retrievalを紹介する。
自己検索は、自己教師付き学習を通じて検索コーパスを内部化し、検索プロセスをシーケンシャルな通過生成に変換し、再ランク付けのための関連性評価を行う。
論文 参考訳(メタデータ) (2024-02-23T18:45:35Z) - Do-Not-Answer: A Dataset for Evaluating Safeguards in LLMs [59.596335292426105]
本稿では,大規模な言語モデルにおけるセーフガードを評価するための,最初のオープンソースデータセットを収集する。
我々は、自動安全性評価において、GPT-4に匹敵する結果を得るために、BERTライクな分類器をいくつか訓練する。
論文 参考訳(メタデータ) (2023-08-25T14:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。