論文の概要: Diagnosing and Repairing Citation Failures in Generative Engine Optimization
- arxiv url: http://arxiv.org/abs/2603.09296v1
- Date: Tue, 10 Mar 2026 07:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.124149
- Title: Diagnosing and Repairing Citation Failures in Generative Engine Optimization
- Title(参考訳): 生成エンジン最適化におけるサイテーション故障の診断と修復
- Authors: Zhihua Tian, Yuhan Chen, Yao Tang, Jian Liu, Ruoxi Jia,
- Abstract要約: 本稿では,文書の引用に失敗した理由を問う診断手法をGEOに導入する。
我々は,(1)引用パイプラインの異なる段階にまたがる引用障害モードの最初の分類法,(2)エージェントGEO,(2)この分類法を用いて障害を診断するエージェントシステム,(3)文書中心のベンチマークにより,最適化が保留クエリ間で一般化するかどうかを評価する。
- 参考スコア(独自算出の注目度): 21.43145230591834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Engine Optimization (GEO) aims to improve content visibility in AI-generated responses. However, existing methods measure contribution-how much a document influences a response-rather than citation, the mechanism that actually drives traffic back to creators. Also, these methods apply generic rewriting rules uniformly, failing to diagnose why individual document are not cited. This paper introduces a diagnostic approach to GEO that asks why a document fails to be cited and intervenes accordingly. We develop a unified framework comprising: (1) the first taxonomy of citation failure modes spanning different stages of a citation pipeline; (2) AgentGEO, an agentic system that diagnoses failures using this taxonomy, selects targeted repairs from a corresponding tool library, and iterates until citation is achieved; and (3) a document-centric benchmark evaluating whether optimizations generalize across held-out queries. AgentGEO achieves over 40% relative improvement in citation rates while modifying only 5% of content, compared to 25% for baselines. Our analysis reveals that generic optimization can harm long-tail content and some documents face challenges that optimization alone cannot fully address-findings with implications for equitable visibility in AI-mediated information access.
- Abstract(参考訳): Generative Engine Optimization (GEO)は、AI生成レスポンスにおけるコンテンツの可視性を改善することを目的としている。
しかし、既存の方法では、ドキュメントのコントリビューションが引用ではなくレスポンスにどの程度影響するかを測定し、実際にトラフィックをクリエーターに戻すメカニズムである。
また、これらの手法は汎用的な書き換え規則を均一に適用し、個々の文書が引用されていない理由の診断に失敗する。
本稿では,文書の引用に失敗した理由を問う診断手法をGEOに導入する。
我々は,(1)引用パイプラインの異なる段階にまたがる引用障害モードの最初の分類法,(2)エージェントGEO,(2)この分類法を用いて障害を診断し,対応するツールライブラリから対象とする修復を選択し,引用が完了するまで反復するエージェントシステム,(3)保留クエリ間で最適化が一般化するかどうかを評価するドキュメント中心ベンチマークを含む統一的なフレームワークを開発する。
AgentGEOは引用率を40%以上改善し、コンテンツは5%しか修正していないが、ベースラインは25%である。
分析の結果,汎用的な最適化が長期的コンテンツに悪影響を及ぼすことが判明し,AIによる情報アクセスにおける公平な可視性に影響を及ぼすことなく,最適化が完全に解決できないという課題に直面している文書もある。
関連論文リスト
- BibAgent: An Agentic Framework for Traceable Miscitation Detection in Scientific Literature [21.872874595027824]
BibAgentは、自動引用検証のためのスケーラブルでエンドツーエンドのエージェントフレームワークである。
検索、推論、アダプティブ・エビデンス・アグリゲーションを統合し、アクセス可能で有料のソースに戦略を適用する。
以上の結果から,BibAgentは引用精度と解釈可能性において,最先端のLarge Language Model(LLM)のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2026-01-12T16:30:45Z) - SemanticCite: Citation Verification with AI-Powered Full-Text Analysis and Evidence-Based Reasoning [0.0]
本稿では,全文ソース解析による引用精度の検証を行うAIシステムであるSemanticCiteを紹介する。
提案手法は,複数の検索手法と,ニュアンスド・クレーム・ソース関係を抽出する4クラス分類システムを組み合わせたものである。
我々は、詳細なアライメント、機能分類、セマンティックアノテーション、およびバイオロメトリメタデータを備えた1000以上の引用からなる包括的なデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2025-11-20T10:05:21Z) - VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.75781898355562]
証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2025-10-13T13:38:54Z) - Relevance to Utility: Process-Supervised Rewrite for RAG [38.81331265140413]
モジュールが真のドキュメントユーティリティをキャプチャできないことを示す。
本稿では,正しい解を生成する確率を最大化するために,直接最適化する鍵となる特徴を持つR2Uを提案する。
論文 参考訳(メタデータ) (2025-09-19T04:24:57Z) - Document Attribution: Examining Citation Relationships using Large Language Models [62.46146670035751]
そこで本研究では,帰属を簡単なテキスト・エンタテインメント・タスクとみなすゼロショット・アプローチを提案する。
また,アトリビューションプロセスの強化におけるアテンションメカニズムの役割についても検討する。
論文 参考訳(メタデータ) (2025-05-09T04:40:11Z) - TrustRAG: An Information Assistant with Retrieval Augmented Generation [73.84864898280719]
TrustRAGは、インデックス付け、検索、生成という3つの視点から、acRAGを強化する新しいフレームワークである。
我々はTrustRAGフレームワークをオープンソース化し、抜粋ベースの質問応答タスク用に設計されたデモスタジオを提供する。
論文 参考訳(メタデータ) (2025-02-19T13:45:27Z) - On the Capacity of Citation Generation by Large Language Models [38.47160164251295]
Retrieval-augmented Generation (RAG) は、大規模言語モデル(LLM)における「ハロシン化」問題を緩和するための有望な方法として現れる。
論文 参考訳(メタデータ) (2024-10-15T03:04:26Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。