論文の概要: MalURLBench: A Benchmark Evaluating Agents' Vulnerabilities When Processing Web URLs
- arxiv url: http://arxiv.org/abs/2601.18113v1
- Date: Mon, 26 Jan 2026 03:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.658665
- Title: MalURLBench: A Benchmark Evaluating Agents' Vulnerabilities When Processing Web URLs
- Title(参考訳): MalURLBench: WebURLを処理する際のエージェントの脆弱性を評価するベンチマーク
- Authors: Dezhang Kong, Zhuxi Wu, Shiqi Liu, Zhicheng Tan, Kuichen Lu, Minghao Li, Qichen Liu, Shengyu Chu, Zhenhua Xu, Xuan Liu, Meng Han,
- Abstract要約: 悪意のあるURLに対するWebエージェントの脆弱性を評価する最初のベンチマークであるMalURLBenchを提案する。
MalURLBenchには、実際の10のシナリオにまたがる61,845の攻撃インスタンスと、実際の悪意のあるWebサイトの7つのカテゴリが含まれている。
12の人気のあるLCMを使った実験によると、既存のモデルは、精巧に偽装された悪意のあるURLを検出するのに苦労している。
- 参考スコア(独自算出の注目度): 16.403811916501077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based web agents have become increasingly popular for their utility in daily life and work. However, they exhibit critical vulnerabilities when processing malicious URLs: accepting a disguised malicious URL enables subsequent access to unsafe webpages, which can cause severe damage to service providers and users. Despite this risk, no benchmark currently targets this emerging threat. To address this gap, we propose MalURLBench, the first benchmark for evaluating LLMs' vulnerabilities to malicious URLs. MalURLBench contains 61,845 attack instances spanning 10 real-world scenarios and 7 categories of real malicious websites. Experiments with 12 popular LLMs reveal that existing models struggle to detect elaborately disguised malicious URLs. We further identify and analyze key factors that impact attack success rates and propose URLGuard, a lightweight defense module. We believe this work will provide a foundational resource for advancing the security of web agents. Our code is available at https://github.com/JiangYingEr/MalURLBench.
- Abstract(参考訳): LLMベースのWebエージェントは、日々の生活や仕事において、そのユーティリティとしてますます人気が高まっている。
しかし、悪意のあるURLを処理する際に重大な脆弱性が現れる。偽りの悪意のあるURLを受け入れると、その後で安全でないWebページにアクセスでき、サービスプロバイダやユーザに深刻なダメージを与える可能性がある。
このリスクにもかかわらず、この新たな脅威を狙うベンチマークは今のところない。
このギャップに対処するため、LLMの脆弱性を悪意のあるURLに評価するための最初のベンチマークであるMalURLBenchを提案する。
MalURLBenchには、実際の10のシナリオにまたがる61,845の攻撃インスタンスと、実際の悪意のあるWebサイトの7つのカテゴリが含まれている。
12の人気のあるLCMを使った実験によると、既存のモデルは、精巧に偽装された悪意のあるURLを検出するのに苦労している。
さらに、攻撃の成功率に影響を与える重要な要因を特定し分析し、軽量防衛モジュールであるURLガードを提案する。
この作業は、Webエージェントのセキュリティを向上するための基盤となるリソースを提供すると思います。
私たちのコードはhttps://github.com/JiangYingEr/MalURLBench.comで利用可能です。
関連論文リスト
- SafeSearch: Automated Red-Teaming for the Safety of LLM-Based Search Agents [63.70653857721785]
我々は、低品質な検索結果の出現率と、エージェントの動作を誤る可能性を実証する2つの実験を行った。
この脅威に対処するため、私たちは、体系的、スケーラブルで、コスト効率のよい自動化されたレッドチームフレームワークを導入しました。
論文 参考訳(メタデータ) (2025-09-28T07:05:17Z) - Web Fraud Attacks Against LLM-Driven Multi-Agent Systems [16.324314873769215]
ウェブ詐欺攻撃はシステムのセキュリティとユーザーの安全に非無視的な脅威をもたらす。
本稿では,Web Fraud Attacksを提案する。Web Fraud Attacksは,悪意のあるWebサイトを訪問するためのマルチエージェントシステムの導入を目的とした,新しいタイプの攻撃手法である。
論文 参考訳(メタデータ) (2025-09-01T07:47:24Z) - Client-Side Zero-Shot LLM Inference for Comprehensive In-Browser URL Analysis [0.0]
悪意のあるウェブサイトやフィッシングURLは、サイバーセキュリティのリスクがますます高まっている。
従来の検出アプローチは機械学習に依存している。
包括的URL分析のための新しいクライアントサイドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-04T07:47:23Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - AutoAdvExBench: Benchmarking autonomous exploitation of adversarial example defenses [66.87883360545361]
AutoAdvExBenchは、大規模言語モデル(LLM)が敵の例に対する防衛を自律的に活用できるかどうかを評価するためのベンチマークである。
我々は,CTF様(ホームワークエクササイズ)の75%を破壊できる強力なエージェントを設計する。
このエージェントは、我々のベンチマークの現実世界の防御の13%でしか成功できないことを示し、実際の"コードを攻撃することの難しさとCTFライクなコードとの間に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2025-03-03T18:39:48Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - Agent Security Bench (ASB): Formalizing and Benchmarking Attacks and Defenses in LLM-based Agents [32.62654499260479]
我々は,LSMベースのエージェントの攻撃と防御を形式化し,ベンチマークし,評価するフレームワークであるAgen Security Bench (ASB)を紹介した。
ASBをベースとして、インジェクション攻撃10件、メモリ中毒攻撃、新しいPlan-of-Thoughtバックドア攻撃4件、混合攻撃11件をベンチマークした。
ベンチマークの結果,システムプロンプト,ユーザプロンプト処理,ツール使用量,メモリ検索など,エージェント操作のさまざまな段階における重大な脆弱性が明らかになった。
論文 参考訳(メタデータ) (2024-10-03T16:30:47Z) - BackdoorLLM: A Comprehensive Benchmark for Backdoor Attacks and Defenses on Large Language Models [27.59116619946915]
生成型大規模言語モデル(LLM)は、幅広いタスクにおいて最先端の結果を得たが、バックドア攻撃の影響を受けないままである。
BackdoorLLMは、テキストジェネレーションLLMのバックドア脅威を体系的に評価する最初の包括的なベンチマークである。
i) 標準化されたトレーニングと評価パイプラインを備えたベンチマークの統一リポジトリ; (ii) データ中毒、重毒、隠れ状態操作、チェーン・オブ・シークレット・ハイジャックなど、さまざまなアタック・モダリティのスイート; (iii) 8つの異なるアタック戦略にまたがる200以上の実験。
論文 参考訳(メタデータ) (2024-08-23T02:21:21Z) - Can LLMs Patch Security Issues? [1.3299507495084417]
LLM(Large Language Models)は、コード生成に優れた習熟度を示している。
LLMは人間と弱点を共有している。
我々は、LLMが生成した脆弱性のあるコードを自動的に洗練するフィードバック駆動セキュリティパッチング(FDSP)を提案する。
論文 参考訳(メタデータ) (2023-11-13T08:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。