論文の概要: Malicious Or Not: Adding Repository Context to Agent Skill Classification
- arxiv url: http://arxiv.org/abs/2603.16572v1
- Date: Tue, 17 Mar 2026 14:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.335038
- Title: Malicious Or Not: Adding Repository Context to Agent Skill Classification
- Title(参考訳): Malicious or Not: エージェントスキルの分類にリポジトリコンテキストを追加する
- Authors: Florian Holzbauer, David Schmidt, Gabriel Gegenhuber, Sebastian Schrittwieser, Johanna Ullrich,
- Abstract要約: 我々は、AIエージェントスキルエコシステムにおける最大の経験的セキュリティ分析を提示する。
3つの主要なディストリビューションプラットフォームとGitHubから238,180のユニークなスキルを集めています。
我々の分析では、現在文書化されていない現実世界の攻撃ベクトルもいくつか発見されている。
- 参考スコア(独自算出の注目度): 3.773312847224526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agent skills extend local AI agents, such as Claude Code or Open Claw, with additional functionality, and their popularity has led to the emergence of dedicated skill marketplaces, similar to app stores for mobile applications. Simultaneously, automated skill scanners were introduced, analyzing the skill description available in SKILL.md, to verify their benign behavior. The results for individual market places mark up to 46.8% of skills as malicious. In this paper, we present the largest empirical security analysis of the AI agent skill ecosystem, questioning this high classification of malicious skills. Therefore, we collect 238,180 unique skills from three major distribution platforms and GitHub to systematically analyze their type and behavior. This approach substantially reduces the number of skills flagged as non-benign by security scanners to only 0.52% which remain in malicious flagged repositories. Consequently, out methodology substantially reduces false positives and provides a more robust view of the ecosystem's current risk surface. Beyond that, we extend the security analysis from the mere investigation of the skill description to a comparison of its congruence with the GitHub repository the skill is embedded in, providing additional context. Furthermore, our analysis also uncovers several, by now undocumented real-world attack vectors, namely hijacking skills hosted on abandoned GitHub repositories.
- Abstract(参考訳): エージェントスキルは、Claude CodeやOpen ClawなどのローカルAIエージェントを追加機能として拡張し、その人気は、モバイルアプリ用のアプリストアのような専用のスキルマーケットプレイスの出現につながった。
同時に、自動化されたスキルスキャナが導入され、SKILL.mdで利用可能なスキル記述を分析し、それらの良質な振る舞いを検証する。
個々の市場における成績は、46.8%のスキルが悪意のあるものだった。
本稿では、AIエージェントスキルエコシステムにおける最大のセキュリティ分析を行い、この悪意あるスキルの分類に疑問を呈する。
そのため、3つの主要なディストリビューションプラットフォームとGitHubから238,180のユニークなスキルを収集し、そのタイプと振る舞いを体系的に分析します。
このアプローチにより、セキュリティスキャナーによって非良性であるとマークされたスキルの数を0.52%に大幅に削減し、悪意のあるフラグ付きリポジトリに留まる。
その結果、アウト方法論は偽陽性を大幅に減らし、生態系の現在のリスク面をより堅牢なビューを提供する。
さらに、スキル記述の単なる調査から、そのスキルが組み込まれているGitHubリポジトリとの比較まで、セキュリティ分析を拡張して、追加のコンテキストを提供します。
さらに、我々の分析では、現在文書化されていない実世界の攻撃ベクタ、すなわち放棄されたGitHubリポジトリにホストされているハイジャックスキルもいくつか発見されている。
関連論文リスト
- SoK: Agentic Skills -- Beyond Tool Use in LLM Agents [6.356997609995175]
エージェントシステムは、より確実にロングホライゾンを実行するために、再利用可能な手続き能力、すなわちエージェントスキルに依存している。
本論文は,全ライフサイクルのスキルレイヤ(発見,実践,蒸留,貯蔵,構成,評価,更新)をマッピングする。
我々は、スキルベースのエージェントのセキュリティとガバナンスの影響を分析し、サプライチェーンのリスク、スキルペイロードによるインジェクションの促進、信頼度の高い実行をカバーします。
論文 参考訳(メタデータ) (2026-02-24T13:11:38Z) - Agent Skills: A Data-Driven Analysis of Claude Skills for Extending Large Language Model Functionality [9.192260493061754]
エージェントスキルは、再利用可能なプログラムのようなモジュールで大きな言語モデル(LLM)エージェントを拡張する。
主要なマーケットプレースから40,285の公開スキルを大規模かつデータ駆動で分析する。
以上の結果から,コミュニティの注目度の変化を追及する短時間でスキルパブリッシュが発生する傾向が示唆された。
論文 参考訳(メタデータ) (2026-02-08T15:14:12Z) - Malicious Agent Skills in the Wild: A Large-Scale Security Empirical Study [47.60135753021306]
サードパーティのエージェントスキルは、LLMベースのエージェントを拡張して、命令ファイルとユーザのマシン上で動作する実行可能なコードを生成する。
結果として生じる脅威を特徴づけるために、地中真実のデータセットは存在しない。
我々は,98,380のスキルを行動検証することで,悪質なエージェントスキルのラベル付きデータセットを構築した。
論文 参考訳(メタデータ) (2026-02-06T09:52:27Z) - Agent Skills in the Wild: An Empirical Study of Security Vulnerabilities at Scale [26.757365536859453]
AIエージェントフレームワークの台頭はエージェントスキル、命令を含むモジュールパッケージ、エージェント機能を動的に拡張する実行可能なコードを導入した。
このアーキテクチャは強力なカスタマイズを可能にするが、スキルは暗黙の信頼と最小限の拒否によって実行され、重要なが不適合なアタックサーフェスを生み出す。
2つの主要な市場から42,447のスキルを収集し、この新興エコシステムの最初の大規模な経験的セキュリティ分析を行います。
論文 参考訳(メタデータ) (2026-01-15T12:31:52Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Program Analysis for High-Value Smart Contract Vulnerabilities: Techniques and Insights [0.43975202913406947]
私たちは、高価値なスマートコントラクトの脆弱性を自動的に発見する上で、繰り返し成功に導いたテクニックと洞察を示します。
当社の脆弱性開示は10件のバグ報奨金を得ており、合計で300万ドル以上を突破し、高度にデプロイされたコードに加えて、デプロイ前または監査下コードで検出された数百のバグが報告されている。
論文 参考訳(メタデータ) (2025-07-28T09:53:31Z) - Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - CyberGym: Evaluating AI Agents' Real-World Cybersecurity Capabilities at Scale [45.97598662617568]
我々は188のソフトウェアプロジェクトにわたる1,507の実際の脆弱性を特徴とする大規模ベンチマークであるCyberGymを紹介した。
我々はCyberGymが35のゼロデイ脆弱性と17の歴史的不完全なパッチを発見できることを示した。
これらの結果は、CyberGymは、サイバーセキュリティにおけるAIの進歩を測定するための堅牢なベンチマークであるだけでなく、直接的な現実世界のセキュリティ効果を生み出すためのプラットフォームでもあることを強調している。
論文 参考訳(メタデータ) (2025-06-03T07:35:14Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。