論文の概要: CHASE: LLM Agents for Dissecting Malicious PyPI Packages
- arxiv url: http://arxiv.org/abs/2601.06838v1
- Date: Sun, 11 Jan 2026 10:06:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.020717
- Title: CHASE: LLM Agents for Dissecting Malicious PyPI Packages
- Title(参考訳): CHASE:LLM剤による悪性PyPIパッケージの分離
- Authors: Takaaki Toda, Tatsuya Mori,
- Abstract要約: 大規模言語モデル(LLM)は、自動コード分析に有望な機能を提供する。
セキュリティクリティカルなマルウェア検出への応用は、幻覚やコンテキストの混乱など、基本的な課題に直面している。
本稿では,これらの制約に対処する信頼性の高いマルチエージェントアーキテクチャCHASEを提案する。
- 参考スコア(独自算出の注目度): 2.384873896423002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern software package registries like PyPI have become critical infrastructure for software development, but are increasingly exploited by threat actors distributing malicious packages with sophisticated multi-stage attack chains. While Large Language Models (LLMs) offer promising capabilities for automated code analysis, their application to security-critical malware detection faces fundamental challenges, including hallucination and context confusion, which can lead to missed detections or false alarms. We present CHASE (Collaborative Hierarchical Agents for Security Exploration), a high-reliability multi-agent architecture that addresses these limitations through a Plan-and-Execute coordination model, specialized Worker Agents focused on specific analysis aspects, and integration with deterministic security tools for critical operations. Our key insight is that reliability in LLM-based security analysis emerges not from improving individual model capabilities but from architecting systems that compensate for LLM weaknesses while leveraging their semantic understanding strengths. Evaluation on a dataset of 3,000 packages (500 malicious, 2,500 benign) demonstrates that CHASE achieves 98.4% recall with only 0.08% false positive rate, while maintaining a practical median analysis time of 4.5 minutes per package, making it suitable for operational deployment in automated package screening. Furthermore, we conducted a survey with cybersecurity professionals to evaluate the generated analysis reports, identifying their key strengths and areas for improvement. This work provides a blueprint for building reliable AI-powered security tools that can scale with the growing complexity of modern software supply chains. Our project page is available at https://t0d4.github.io/CHASE-AIware25/
- Abstract(参考訳): PyPIのような現代のソフトウェアパッケージレジストリは、ソフトウェア開発にとって重要な基盤となっているが、高度なマルチステージアタックチェーンで悪意あるパッケージを配布する脅威アクターによって、ますます悪用されている。
大きな言語モデル(LLM)は自動コード分析に有望な機能を提供するが、セキュリティクリティカルなマルウェア検出への応用は幻覚やコンテキストの混乱など、基本的な課題に直面している。
本稿では,これらの制約に対処する信頼性の高いマルチエージェントアーキテクチャであるCHASE(Collaborative Hierarchical Agents for Security Exploration)について述べる。
我々の重要な洞察は、LLMベースのセキュリティ分析の信頼性は、個々のモデル能力を改善することではなく、LLMの弱点を補いながら、それらのセマンティック理解の強みを活用できるシステムを設計することにある。
3,000のパッケージ(500の悪意のある2500の良心)のデータセットの評価では、CHASEは98.4%のリコールをわずか0.08%の偽陽性率で達成し、1パッケージあたり4.5分という実用的な中央値解析時間を維持し、自動パッケージスクリーニングの運用に適している。
さらに, サイバーセキュリティの専門家を対象に, 発生した分析結果の評価を行い, その重要な強みと改善すべき領域を特定した。
この作業は、最新のソフトウェアサプライチェーンの複雑さが増大する中でスケール可能な、信頼性の高いAIベースのセキュリティツールを構築するための青写真を提供する。
私たちのプロジェクトページはhttps://t0d4.github.io/CHASE-AIware25/で公開されています。
関連論文リスト
- An Empirical Study on the Security Vulnerabilities of GPTs [48.12756684275687]
GPTは、OpenAIの大規模言語モデルに基づいた、カスタマイズされたAIエージェントの一種である。
本稿では,GPTのセキュリティ脆弱性に関する実証的研究について述べる。
論文 参考訳(メタデータ) (2025-11-28T13:30:25Z) - ParaVul: A Parallel Large Language Model and Retrieval-Augmented Framework for Smart Contract Vulnerability Detection [43.41293570032631]
ParaVulは、スマートコントラクト脆弱性検出の信頼性と精度を向上させるための、検索強化フレームワークである。
LLM微調整のためのスパースローランド適応(SLoRA)を開発した。
脆弱性契約データセットを構築し,RAG(Retrieval-Augmented Generation)システムを開発した。
論文 参考訳(メタデータ) (2025-10-20T03:23:41Z) - STAC: When Innocent Tools Form Dangerous Chains to Jailbreak LLM Agents [38.755035623707656]
本稿では,エージェントツールの利用を生かした新しいマルチターンアタックフレームワークSTACについて紹介する。
我々は,483のSTACケースを自動生成し,評価するために,1,352セットのユーザエージェント環境相互作用を特徴とするフレームワークを適用した。
GPT-4.1を含む最先端のLSMエージェントはSTACに対して極めて脆弱であり,攻撃成功率(ASR)は90%以上である。
論文 参考訳(メタデータ) (2025-09-30T00:31:44Z) - VulnRepairEval: An Exploit-Based Evaluation Framework for Assessing Large Language Model Vulnerability Repair Capabilities [41.85494398578654]
VulnRepairEvalは、関数型Proof-of-Conceptエクスプロイトに固定された評価フレームワークである。
我々のフレームワークは、再現可能な微分評価を可能にする包括的でコンテナ化された評価パイプラインを提供する。
論文 参考訳(メタデータ) (2025-09-03T14:06:10Z) - OpenAgentSafety: A Comprehensive Framework for Evaluating Real-World AI Agent Safety [58.201189860217724]
OpenAgentSafetyは,8つの危機リスクカテゴリにまたがるエージェントの動作を評価する包括的なフレームワークである。
従来の作業とは異なり、我々のフレームワークは、Webブラウザ、コード実行環境、ファイルシステム、bashシェル、メッセージングプラットフォームなど、実際のツールと対話するエージェントを評価します。
ルールベースの分析とLSM-as-judgeアセスメントを組み合わせることで、過度な行動と微妙な不安全行動の両方を検出する。
論文 参考訳(メタデータ) (2025-07-08T16:18:54Z) - Are AI-Generated Fixes Secure? Analyzing LLM and Agent Patches on SWE-bench [9.229310642804036]
我々は,SWE-benchデータセットから2万以上の問題を用いて,LLM生成パッチの大規模セキュリティ解析を行った。
スタンドアロンのLCM(Llama 3.3)によるパッチを評価し,開発者によるパッチと比較した。
また、データのサブセットに基づいて、トップパフォーマンスのエージェントフレームワーク(OpenHands、AutoCodeRover、HoneyComb)3つによって生成されたパッチのセキュリティを評価します。
論文 参考訳(メタデータ) (2025-06-30T21:10:19Z) - CyberGym: Evaluating AI Agents' Real-World Cybersecurity Capabilities at Scale [45.97598662617568]
我々は188のソフトウェアプロジェクトにわたる1,507の実際の脆弱性を特徴とする大規模ベンチマークであるCyberGymを紹介した。
我々はCyberGymが35のゼロデイ脆弱性と17の歴史的不完全なパッチを発見できることを示した。
これらの結果は、CyberGymは、サイバーセキュリティにおけるAIの進歩を測定するための堅牢なベンチマークであるだけでなく、直接的な現実世界のセキュリティ効果を生み出すためのプラットフォームでもあることを強調している。
論文 参考訳(メタデータ) (2025-06-03T07:35:14Z) - IRIS: LLM-Assisted Static Analysis for Detecting Security Vulnerabilities [14.188864624736938]
大規模な言語モデル(LLM)は印象的なコード生成機能を示しているが、そのような脆弱性を検出するためにコードに対して複雑な推論を行うことはできない。
我々は,LLMと静的解析を体系的に組み合わせ,セキュリティ脆弱性検出のための全体リポジトリ推論を行うニューロシンボリックアプローチであるIRISを提案する。
論文 参考訳(メタデータ) (2024-05-27T14:53:35Z) - Large Language Models for Cyber Security: A Systematic Literature Review [17.073186844004148]
大規模言語モデル(LLM)は、サイバーセキュリティを含むさまざまなアプリケーションドメインで人工知能を活用する新たな機会を開いた。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出など、幅広いサイバーセキュリティタスクに適用されている。
LLMベースの自律エージェントは、シングルタスク実行から複雑なマルチステップセキュリティのオーケストレーションへのパラダイムシフトを表している。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。