論文の概要: Exposing Citation Vulnerabilities in Generative Engines
- arxiv url: http://arxiv.org/abs/2510.06823v1
- Date: Wed, 08 Oct 2025 09:47:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.397755
- Title: Exposing Citation Vulnerabilities in Generative Engines
- Title(参考訳): ジェネレーティブエンジンにおけるサイテーション脆弱性の露光
- Authors: Riku Mochizuki, Shusuke Komatsu, Souta Noguchi, Kazuto Ataka,
- Abstract要約: 我々は,生成エンジン(GE)が生成する回答を,引用パブリッシャとコンテンツ注入障壁の観点から分析する。
誰でもウェブで情報を公開できるので、GEは毒攻撃に弱い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze answers generated by generative engines (GEs) from the perspectives of citation publishers and the content-injection barrier, defined as the difficulty for attackers to manipulate answers to user prompts by placing malicious content on the web. GEs integrate two functions: web search and answer generation that cites web pages using large language models. Because anyone can publish information on the web, GEs are vulnerable to poisoning attacks. Existing studies of citation evaluation focus on how faithfully answer content reflects cited sources, leaving unexamined which web sources should be selected as citations to defend against poisoning attacks. To fill this gap, we introduce evaluation criteria that assess poisoning threats using the citation information contained in answers. Our criteria classify the publisher attributes of citations to estimate the content-injection barrier thereby revealing the threat of poisoning attacks in current GEs. We conduct experiments in political domains in Japan and the United States (U.S.) using our criteria and show that citations from official party websites (primary sources) are approximately \(25\%\)--\(45\%\) in the U.S. and \(60\%\)--\(65\%\) in Japan, indicating that U.S. political answers are at higher risk of poisoning attacks. We also find that sources with low content-injection barriers are frequently cited yet are poorly reflected in answer content. To mitigate this threat, we discuss how publishers of primary sources can increase exposure of their web content in answers and show that well-known techniques are limited by language differences.
- Abstract(参考訳): 我々は,Web上に悪意あるコンテンツを置くことで,ユーザプロンプトに対する回答を操作するのが困難であると定義された,引用出版者の視点から,生成エンジン(GE)が生成した回答を分析した。
GEは、大きな言語モデルを使用してWebページを引用するWeb検索と回答生成という2つの機能を統合している。
誰でもウェブで情報を公開できるので、GEは毒攻撃に弱い。
引用評価の既存の研究は、引用されたソースをいかに忠実に答えるかに焦点が当てられており、どのWebソースを毒殺攻撃から守るための引用として選択すべきかを未検討のまま残している。
このギャップを埋めるために,回答に含まれる引用情報を用いて汚染脅威を評価する評価基準を導入する。
我々の基準は, 引用の出版者属性を分類し, コンテンツ注入障壁を推定することにより, 現在のGEにおける中毒攻撃の脅威を明らかにする。
我々は,本基準を用いて,日本と米国(アメリカ合衆国)の政治ドメインで実験を行い,公的な政党ウェブサイト(一次資料)からの引用が米国において約 \(25\%\)-\(45\%\) であり,日本の \(60\%\)-\(65\%\) であり,米国の政治的回答が中毒攻撃のリスクが高いことを示す。
また,コンテンツ注入障壁が低いソースがしばしば引用されるが,回答内容にはほとんど反映されていないことも判明した。
この脅威を軽減するために,プライマリ・ソースのパブリッシャーが回答中のWebコンテンツの露出をいかに増加させるかについて議論し,言語の違いによってよく知られた技術が制限されていることを示す。
関連論文リスト
- Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - Harmful Suicide Content Detection [35.0823928978658]
本研究では,オンライン自殺内容の有害なレベルを5つに分類するための有害な自殺内容検出タスクを導入する。
コントリビューションには,新たな検出タスクの提案,専門家アノテーションを用いたマルチモーダル韓国ベンチマーク,違法かつ有害なコンテンツの検出にLLMを用いた戦略の提案などが含まれている。
論文 参考訳(メタデータ) (2024-06-03T03:43:44Z) - PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models [45.409248316497674]
大規模言語モデル(LLM)は、その例外的な生成能力により、顕著な成功を収めた。
Retrieval-Augmented Generation (RAG)は、これらの制限を緩和するための最先端技術である。
RAGシステムにおける知識データベースは,新たな,実用的な攻撃面を導入している。
この攻撃面に基づいて,RAGに対する最初の知識汚職攻撃であるPoisonedRAGを提案する。
論文 参考訳(メタデータ) (2024-02-12T18:28:36Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Reducing Information Overload: Because Even Security Experts Need to Blink [0.0]
コンピュータ緊急対応チーム(CERTs)は、セキュリティ関連の情報量の増加を処理しようとする課題に直面している。
この研究は、自動情報統合のための最適なアプローチを特定するために、5つのセキュリティ関連データセットにクラスタリングアルゴリズムと埋め込みモデルを組み合わせた196の組合せを評価する。
クラスタリングにより、セマンティックコヒーレンスを維持しながら、情報処理の要求を90%以上削減できることを示す。
論文 参考訳(メタデータ) (2022-10-25T14:50:11Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。