論文の概要: Exposing Citation Vulnerabilities in Generative Engines
- arxiv url: http://arxiv.org/abs/2510.06823v1
- Date: Wed, 08 Oct 2025 09:47:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.397755
- Title: Exposing Citation Vulnerabilities in Generative Engines
- Title(参考訳): ジェネレーティブエンジンにおけるサイテーション脆弱性の露光
- Authors: Riku Mochizuki, Shusuke Komatsu, Souta Noguchi, Kazuto Ataka,
- Abstract要約: 我々は,生成エンジン(GE)が生成する回答を,引用パブリッシャとコンテンツ注入障壁の観点から分析する。
誰でもウェブで情報を公開できるので、GEは毒攻撃に弱い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze answers generated by generative engines (GEs) from the perspectives of citation publishers and the content-injection barrier, defined as the difficulty for attackers to manipulate answers to user prompts by placing malicious content on the web. GEs integrate two functions: web search and answer generation that cites web pages using large language models. Because anyone can publish information on the web, GEs are vulnerable to poisoning attacks. Existing studies of citation evaluation focus on how faithfully answer content reflects cited sources, leaving unexamined which web sources should be selected as citations to defend against poisoning attacks. To fill this gap, we introduce evaluation criteria that assess poisoning threats using the citation information contained in answers. Our criteria classify the publisher attributes of citations to estimate the content-injection barrier thereby revealing the threat of poisoning attacks in current GEs. We conduct experiments in political domains in Japan and the United States (U.S.) using our criteria and show that citations from official party websites (primary sources) are approximately \(25\%\)--\(45\%\) in the U.S. and \(60\%\)--\(65\%\) in Japan, indicating that U.S. political answers are at higher risk of poisoning attacks. We also find that sources with low content-injection barriers are frequently cited yet are poorly reflected in answer content. To mitigate this threat, we discuss how publishers of primary sources can increase exposure of their web content in answers and show that well-known techniques are limited by language differences.
- Abstract(参考訳): 我々は,Web上に悪意あるコンテンツを置くことで,ユーザプロンプトに対する回答を操作するのが困難であると定義された,引用出版者の視点から,生成エンジン(GE)が生成した回答を分析した。
GEは、大きな言語モデルを使用してWebページを引用するWeb検索と回答生成という2つの機能を統合している。
誰でもウェブで情報を公開できるので、GEは毒攻撃に弱い。
引用評価の既存の研究は、引用されたソースをいかに忠実に答えるかに焦点が当てられており、どのWebソースを毒殺攻撃から守るための引用として選択すべきかを未検討のまま残している。
このギャップを埋めるために,回答に含まれる引用情報を用いて汚染脅威を評価する評価基準を導入する。
我々の基準は, 引用の出版者属性を分類し, コンテンツ注入障壁を推定することにより, 現在のGEにおける中毒攻撃の脅威を明らかにする。
我々は,本基準を用いて,日本と米国(アメリカ合衆国)の政治ドメインで実験を行い,公的な政党ウェブサイト(一次資料)からの引用が米国において約 \(25\%\)-\(45\%\) であり,日本の \(60\%\)-\(65\%\) であり,米国の政治的回答が中毒攻撃のリスクが高いことを示す。
また,コンテンツ注入障壁が低いソースがしばしば引用されるが,回答内容にはほとんど反映されていないことも判明した。
この脅威を軽減するために,プライマリ・ソースのパブリッシャーが回答中のWebコンテンツの露出をいかに増加させるかについて議論し,言語の違いによってよく知られた技術が制限されていることを示す。
関連論文リスト
- Bias Injection Attacks on RAG Databases and Sanitization Defenses [9.638140849760108]
本稿では,検索強化世代(RAG)システムにおけるベクトルデータベースに対する攻撃と防御について検討する。
バイアス注入攻撃は、事実的に正しいが、意味的に偏ったパスを知識ベースに挿入する。
論文 参考訳(メタデータ) (2025-11-30T09:27:18Z) - Who Taught the Lie? Responsibility Attribution for Poisoned Knowledge in Retrieval-Augmented Generation [18.511277791848638]
Retrieval-Augmented Generation (RAG)は、外部知識を大規模言語モデルに統合し、応答品質を向上させる。
近年の研究では、RAGシステムは、悪意のあるテキストを知識データベースに挿入し、モデル出力に影響を与える有害な攻撃に対して非常に脆弱であることが示されている。
本稿では,知識データベースのどのテキストが誤読や誤用の原因であるかを識別するブラックボックス責任属性フレームワークであるRAGOriginについて述べる。
論文 参考訳(メタデータ) (2025-09-17T07:38:54Z) - ChineseHarm-Bench: A Chinese Harmful Content Detection Benchmark [50.89916747049978]
有害なコンテンツ検出のための既存のリソースは、主に英語に重点を置いており、中国のデータセットは乏しく、スコープは限られている。
我々は,6つの代表的なカテゴリを網羅し,実世界のデータから構築した,中国のコンテンツ害検知のための包括的,専門的な注釈付きベンチマークを提案する。
本研究では,人間の注釈付き知識規則と大規模言語モデルからの暗黙的知識を統合した知識強化ベースラインを提案する。
論文 参考訳(メタデータ) (2025-06-12T17:57:05Z) - MM-PoisonRAG: Disrupting Multimodal RAG with Local and Global Poisoning Attacks [104.50239783909063]
Retrieval Augmented Generation (RAG) を用いた多モーダル大規模言語モデルは、多モーダル質問応答のようなかなり高度なタスクを持つ。
この外部知識への依存は、知識中毒攻撃(英語版)という、危険だが未発見の安全リスクを引き起こす。
マルチモーダルRAGにおける知識中毒を体系的に設計する最初のフレームワークであるMM-PoisonRAGを提案する。
論文 参考訳(メタデータ) (2025-02-25T04:23:59Z) - Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - Harmful Suicide Content Detection [35.0823928978658]
本研究では,オンライン自殺内容の有害なレベルを5つに分類するための有害な自殺内容検出タスクを導入する。
コントリビューションには,新たな検出タスクの提案,専門家アノテーションを用いたマルチモーダル韓国ベンチマーク,違法かつ有害なコンテンツの検出にLLMを用いた戦略の提案などが含まれている。
論文 参考訳(メタデータ) (2024-06-03T03:43:44Z) - PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models [45.409248316497674]
大規模言語モデル(LLM)は、その例外的な生成能力により、顕著な成功を収めた。
Retrieval-Augmented Generation (RAG)は、これらの制限を緩和するための最先端技術である。
RAGシステムにおける知識データベースは,新たな,実用的な攻撃面を導入している。
この攻撃面に基づいて,RAGに対する最初の知識汚職攻撃であるPoisonedRAGを提案する。
論文 参考訳(メタデータ) (2024-02-12T18:28:36Z) - Evaluating Verifiability in Generative Search Engines [70.59477647085387]
生成検索エンジンは、インラインの引用とともに、ユーザークエリへの応答を直接生成する。
我々は,一般的な4つの生成検索エンジンの評価を行う。
既存の生成検索エンジンからの応答は流動的であり、情報的に見えるが、しばしばサポートされていない文や不正確な引用を含んでいる。
論文 参考訳(メタデータ) (2023-04-19T17:56:12Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Reducing Information Overload: Because Even Security Experts Need to Blink [0.0]
コンピュータ緊急対応チーム(CERTs)は、セキュリティ関連の情報量の増加を処理しようとする課題に直面している。
この研究は、自動情報統合のための最適なアプローチを特定するために、5つのセキュリティ関連データセットにクラスタリングアルゴリズムと埋め込みモデルを組み合わせた196の組合せを評価する。
クラスタリングにより、セマンティックコヒーレンスを維持しながら、情報処理の要求を90%以上削減できることを示す。
論文 参考訳(メタデータ) (2022-10-25T14:50:11Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。