論文の概要: Decoding Latent Attack Surfaces in LLMs: Prompt Injection via HTML in Web Summarization
- arxiv url: http://arxiv.org/abs/2509.05831v1
- Date: Sat, 06 Sep 2025 21:05:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.734313
- Title: Decoding Latent Attack Surfaces in LLMs: Prompt Injection via HTML in Web Summarization
- Title(参考訳): LLMにおける遅延攻撃面のデコード:Web要約におけるHTMLによるプロンプトインジェクション
- Authors: Ishaan Verma,
- Abstract要約: 大規模言語モデル(LLM)は、コンテンツ要約のためのWebベースシステムに統合されつつある。
本研究では、Webページの可視コンテンツを変更することなく、非可視的なHTML要素をどのように活用して敵の命令を埋め込むかを検討する。
- 参考スコア(独自算出の注目度): 1.3537117504260623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly integrated into web-based systems for content summarization, yet their susceptibility to prompt injection attacks remains a pressing concern. In this study, we explore how non-visible HTML elements such as <meta>, aria-label, and alt attributes can be exploited to embed adversarial instructions without altering the visible content of a webpage. We introduce a novel dataset comprising 280 static web pages, evenly divided between clean and adversarial injected versions, crafted using diverse HTML-based strategies. These pages are processed through a browser automation pipeline to extract both raw HTML and rendered text, closely mimicking real-world LLM deployment scenarios. We evaluate two state-of-the-art open-source models, Llama 4 Scout (Meta) and Gemma 9B IT (Google), on their ability to summarize this content. Using both lexical (ROUGE-L) and semantic (SBERT cosine similarity) metrics, along with manual annotations, we assess the impact of these covert injections. Our findings reveal that over 29% of injected samples led to noticeable changes in the Llama 4 Scout summaries, while Gemma 9B IT showed a lower, yet non-trivial, success rate of 15%. These results highlight a critical and largely overlooked vulnerability in LLM driven web pipelines, where hidden adversarial content can subtly manipulate model outputs. Our work offers a reproducible framework and benchmark for evaluating HTML-based prompt injection and underscores the urgent need for robust mitigation strategies in LLM applications involving web content.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コンテンツ要約のためのWebベースのシステムにますます統合されている。
本研究では,<meta>,aria-label,alt属性などの非可視HTML要素をどのように利用して,Webページの可視コンテンツを変更することなく,逆命令を埋め込む方法について検討する。
280の静的Webページからなる新しいデータセットを導入し、HTMLベースの多様な戦略を用いて構築したクリーンバージョンと逆インジェクションバージョンを均等に分けた。
これらのページはブラウザ自動化パイプラインを通じて処理され、生のHTMLとレンダリングされたテキストの両方を抽出する。
Llama 4 Scout (Meta) と Gemma 9B IT (Google) の2つの最先端オープンソースモデルを評価する。
語彙 (ROUGE-L) と意味 (SBERT cosine similarity) の2つの指標と手動アノテーションを用いて, これらの隠蔽注入の効果を評価する。
Llama 4 Scoutサマリーは29%以上,Gemma 9B ITは15%以下であった。
これらの結果は、LLM駆動のWebパイプラインにおいて重要で、見落とされがちな脆弱性を浮き彫りにしている。
私たちの研究は、HTMLベースのプロンプトインジェクションを評価するための再現可能なフレームワークとベンチマークを提供し、Webコンテンツを含むLLMアプリケーションにおいて、ロバストな緩和戦略の緊急の必要性を裏付けています。
関連論文リスト
- Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models [29.879456712405204]
大規模言語モデル(LLM)は、リアルタイムWeb検索機能を備え、モデルコンテキストプロトコル(MCP)のようなプロトコルと統合されつつある。
この拡張は新たなセキュリティ脆弱性を導入する可能性がある。
本稿では,Webページなどの外部リソースに悪意あるフォント注入を施して,隠れた敵のプロンプトに対するLLM脆弱性を系統的に調査する。
論文 参考訳(メタデータ) (2025-05-22T17:36:33Z) - LLM-based Semantic Augmentation for Harmful Content Detection [5.954202581988127]
本稿では,大規模言語モデルに対して,雑音の多いテキストをきれいにし,文脈に富んだ説明を提供するアプローチを提案する。
我々はSemEval 2024マルチラベルPersuasive Memeデータセットを評価し、Google Jigsawの有毒なコメントとFacebookの憎しみのあるミームデータセットで検証した。
その結果, 教師付きモデルと比較して, ゼロショットLLM分類はこれらの高文脈タスクでは不十分であることが判明した。
論文 参考訳(メタデータ) (2025-04-22T02:59:03Z) - Learning to Contextualize Web Pages for Enhanced Decision Making by LLM Agents [89.98593996816186]
複雑なWebページをより理解しやすい形式にするための言語モデルを学習するためのフレームワークであるLCoWを紹介する。
LCoWは、別々のコンテキスト化モジュールをトレーニングすることで、意思決定からWebページ理解を分離する。
我々の文脈化モジュールは、様々なスケールのLLMエージェントと効果的に統合され、意思決定能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-03-12T01:33:40Z) - HtmlRAG: HTML is Better Than Plain Text for Modeling Retrieved Knowledge in RAG Systems [62.36019283532854]
Retrieval-Augmented Generation (RAG) は知識能力の向上とLLMの幻覚の軽減を目的としている。
本稿では,RAGにおける検索された知識の形式として,平易なテキストの代わりにHTMLを使用するRAGを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:58:36Z) - Data Extraction Attacks in Retrieval-Augmented Generation via Backdoors [15.861833242429228]
本稿では,RAGの知識データベースを対象としたデータ抽出攻撃について検討する。
従来のインジェクションベース抽出攻撃はLLMの命令追従能力に大きく依存していた。
筆者らは, LLM内のバックドアを作成するために, 微調整期間中に少量の有毒データを注入するバックドアRAGを提案する。
論文 参考訳(メタデータ) (2024-11-03T22:27:40Z) - Hidden in Plain Sight: Exploring Chat History Tampering in Interactive Language Models [12.920884182101142]
大規模言語モデル(LLM)は、実世界のアプリケーションで普及し、素晴らしいテキスト生成性能を示している。
LLMベースのチャットシステムは、対話的に振る舞うためには、事前に定義された構造に従って、事前のチャット履歴を入力のコンテキストとして統合する必要がある。
本稿では,目標モデルの事前知識を必要とせずに,LLM会話にユーザ提供履歴を注入するための体系的手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T16:36:47Z) - AutoScraper: A Progressive Understanding Web Agent for Web Scraper Generation [54.17246674188208]
Webスクレイピングは、Webサイトからデータを抽出し、自動データ収集を可能にし、データ分析機能を強化し、手動のデータ入力作業を最小化する強力なテクニックである。
既存の手法では、ラッパーベースの手法は、新しいウェブサイトで直面する場合、適応性とスケーラビリティの制限に悩まされる。
本稿では,大規模言語モデル(LLM)を用いたWebスクレイパー生成のパラダイムを紹介し,多様なWeb環境をより効率的に処理できる2段階フレームワークであるAutoScraperを提案する。
論文 参考訳(メタデータ) (2024-04-19T09:59:44Z) - Understanding HTML with Large Language Models [73.92747433749271]
大規模言語モデル(LLM)は、様々な自然言語タスクにおいて例外的な性能を示している。
我々は,HTML 理解モデル (微調整 LLM ) と,その機能に関する3つのタスクの詳細な分析に貢献する。
本稿では,標準自然言語コーパスで事前訓練されたLLMが,HTML理解タスクに極めて適していることを示す。
論文 参考訳(メタデータ) (2022-10-08T07:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。