論文の概要: Bridging Expert Reasoning and LLM Detection: A Knowledge-Driven Framework for Malicious Packages
- arxiv url: http://arxiv.org/abs/2601.16458v1
- Date: Fri, 23 Jan 2026 05:31:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.553547
- Title: Bridging Expert Reasoning and LLM Detection: A Knowledge-Driven Framework for Malicious Packages
- Title(参考訳): Bridging Expert Reasoning and LLM Detection: 悪意あるパッケージのための知識駆動型フレームワーク
- Authors: Wenbo Guo, Shiwen Song, Jiaxun Guo, Zhengzi Xu, Chengwei Liu, Haoran Ou, Mengmeng Ge, Yang Liu,
- Abstract要約: NPMやPyPIといったオープンソースエコシステムは、サプライチェーン攻撃によってますます標的になってきている。
我々は、専門家による解析的推論を自動化された悪意のあるパッケージ検出に統合する、検索強化世代(RAG)ベースのフレームワークであるIntelGuardを紹介する。
- 参考スコア(独自算出の注目度): 10.858565849895314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-source ecosystems such as NPM and PyPI are increasingly targeted by supply chain attacks, yet existing detection methods either depend on fragile handcrafted rules or data-driven features that fail to capture evolving attack semantics. We present IntelGuard, a retrieval-augmented generation (RAG) based framework that integrates expert analytical reasoning into automated malicious package detection. IntelGuard constructs a structured knowledge base from over 8,000 threat intelligence reports, linking malicious code snippets with behavioral descriptions and expert reasoning. When analyzing new packages, it retrieves semantically similar malicious examples and applies LLM-guided reasoning to assess whether code behaviors align with intended functionality. Experiments on 4,027 real-world packages show that IntelGuard achieves 99% accuracy and a 0.50% false positive rate, while maintaining 96.5% accuracy on obfuscated code. Deployed on PyPI.org, it discovered 54 previously unreported malicious packages, demonstrating interpretable and robust detection guided by expert knowledge.
- Abstract(参考訳): NPMやPyPIといったオープンソースエコシステムはサプライチェーン攻撃をターゲットとしているが、既存の検出方法は脆弱な手作りルールや、進化するアタックセマンティクスをキャプチャできないデータ駆動機能に依存している。
我々は、専門家による解析的推論を自動化された悪意のあるパッケージ検出に統合する、検索強化世代(RAG)ベースのフレームワークであるIntelGuardを紹介する。
IntelGuardは8000以上の脅威インテリジェンスレポートから構造化された知識ベースを構築し、悪意のあるコードスニペットに振る舞いの説明と専門家の推論をリンクする。
新しいパッケージを解析する際に、意味的に類似した悪意のある例を検索し、LLM誘導推論を適用して、コードの振る舞いが意図した機能と一致しているかどうかを評価する。
4,027の現実世界のパッケージの実験では、IntelGuardは99%の精度と0.50%の偽陽性率を達成し、難読コードの96.5%の精度を維持している。
PyPI.orgにデプロイされた同社は、これまで報告されていない54の悪意のあるパッケージを発見し、専門家の知識によって導かれる解釈可能で堅牢な検出を実証した。
関連論文リスト
- Cutting the Gordian Knot: Detecting Malicious PyPI Packages via a Knowledge-Mining Framework [14.0015860172317]
Python Package Index(PyPI)は悪意のあるアクターのターゲットとなっている。
現在の検出ツールは偽陽性率15~30%を生成し、不正に正規パッケージの3分の1を悪意のあるものとフラグ付けしている。
我々は,検出障害を有用な行動知識に変換する知識駆動型フレームワークであるPyGuardを提案する。
論文 参考訳(メタデータ) (2026-01-23T05:49:09Z) - ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack [52.17935054046577]
本稿では、間接的インジェクション攻撃に対する安全性アライメントを改善するためのモデルレベルのソリューションであるReasAlignを提案する。
ReasAlignには、ユーザクエリの分析、競合する命令の検出、ユーザの意図したタスクの継続性を維持するための構造化された推論ステップが組み込まれている。
論文 参考訳(メタデータ) (2026-01-15T08:23:38Z) - Unveiling Malicious Logic: Towards a Statement-Level Taxonomy and Dataset for Securing Python Packages [0.19029675742486804]
既存のデータセットは、パッケージレベルにおいて、パッケージを悪意のあるものまたは良性であるとラベル付けするが、どのステートメントが悪意のある振る舞いを実装しているかは明記しない。
我々は、370の悪意あるPythonパッケージのステートメントレベルデータセットを構築し、2,962のラベル付き悪意のあるインジケータを発生させた。
7つのタイプにまたがる47の悪意のある指標の詳細な分類法を導き、コード内での敵の振る舞いがどのように実装されているかを把握する。
論文 参考訳(メタデータ) (2025-12-14T05:28:30Z) - Taint-Based Code Slicing for LLMs-based Malicious NPM Package Detection [2.398400814870029]
本稿では,LLMをベースとした悪意あるパッケージ検出タスクにおいて,コードスライシング技術を活用する新しいフレームワークを提案する。
バックトラッキング機構によって強化されたnpmパッケージのためのテントベースの特殊スライシング手法を提案する。
5000以上の悪意のあるnpmパッケージのデータセットに対する評価は,我々のアプローチがセキュリティ関連コードを分離し,入力量を99%以上削減していることを示している。
論文 参考訳(メタデータ) (2025-12-13T12:56:03Z) - The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - TraceRAG: A LLM-Based Framework for Explainable Android Malware Detection and Behavior Analysis [8.977634735108895]
本稿では,TraceRAGを紹介した。TraceRAGは,マルウェアの検出と解析を行うための検索拡張世代(RAG)フレームワークである。
まず、TraceRAGは、ベクトルデータベースにインデックスされたメソッドレベルのコードスニペットの要約を生成する。
クエリ時に、行動に焦点を当てた質問は、より深い検査のために最も意味のあるスニペットを検索する。
最後に、マルチターン解析結果に基づいて、TraceRAGは、識別された悪意のある振る舞いとその対応するコード実装を示す人間可読レポートを生成する。
論文 参考訳(メタデータ) (2025-09-10T06:07:12Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - Defending against Indirect Prompt Injection by Instruction Detection [109.30156975159561]
InstructDetectorは、LLMの動作状態を利用して潜在的なIPI攻撃を特定する、新しい検出ベースのアプローチである。
InstructDetectorは、ドメイン内設定で99.60%、ドメイン外設定で96.90%の検出精度を達成し、攻撃成功率をBIPIAベンチマークで0.03%に下げる。
論文 参考訳(メタデータ) (2025-05-08T13:04:45Z) - Detecting Malicious Source Code in PyPI Packages with LLMs: Does RAG Come in Handy? [6.7341750484636975]
PyPIのようなオープンソースのエコシステムにおける悪意あるソフトウェアパッケージは、セキュリティ上のリスクを増大させる。
本研究では,Large Language Models (LLM) とRetrieval-Augmented Generation (RAG) の有効性を実証的に評価する。
論文 参考訳(メタデータ) (2025-04-18T16:11:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。