論文の概要: AI Answer Engine Citation Behavior An Empirical Analysis of the GEO16 Framework
- arxiv url: http://arxiv.org/abs/2509.10762v1
- Date: Sat, 13 Sep 2025 00:29:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.769147
- Title: AI Answer Engine Citation Behavior An Empirical Analysis of the GEO16 Framework
- Title(参考訳): AI Answer Engine Citation Behavior : GEO16フレームワークの実証分析
- Authors: Arlen Kumar, Leanid Palkhouski,
- Abstract要約: GEO-16はページ品質の信号をバンド化されたピラースコアに変換するフレームワークであり、正規化されたGEOスコアGは0から1の範囲である。
3つのエンジンで1,702の引用を収集し、1,100のURLを監査しました。
我々のコーパスでは、エンジンは、それらが引用したページのGEO品質に違いがあり、MetadataとFreshness、Semantic HTML、Structured Dataに関連する柱は、引用と最も強い関連性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI answer engines increasingly mediate access to domain knowledge by generating responses and citing web sources. We introduce GEO-16, a 16 pillar auditing framework that converts on page quality signals into banded pillar scores and a normalized GEO score G that ranges from 0 to 1. Using 70 product intent prompts, we collected 1,702 citations across three engines (Brave Summary, Google AI Overviews, and Perplexity) and audited 1,100 unique URLs. In our corpus, the engines differed in the GEO quality of the pages they cited, and pillars related to Metadata and Freshness, Semantic HTML, and Structured Data showed the strongest associations with citation. Logistic models with domain clustered standard errors indicate that overall page quality is a strong predictor of citation, and simple operating points (for example, G at least 0.70 combined with at least 12 pillar hits) align with substantially higher citation rates in our data. We report per engine contrasts, vertical effects, threshold analysis, and diagnostics, then translate findings into a practical playbook for publishers. The study is observational and focuses on English language B2B SaaS pages; we discuss limitations, threats to validity, and reproducibility considerations.
- Abstract(参考訳): AI回答エンジンは、応答を生成し、Webソースを引用することによって、ドメイン知識へのアクセスを仲介する。
16の柱監査フレームワークであるGEO-16を導入し、ページ品質の信号をバンド化された柱スコアに変換し、正規化されたGEOスコアGを0から1の範囲で導入する。
70のプロダクトインテントプロンプトを使用して、3つのエンジン(Brave Summary、Google AI Overviews、Perplexity)に1,702の引用を収集し、1,100のユニークなURLを監査しました。
我々のコーパスでは、エンジンは、それらが引用したページのGEO品質に違いがあり、Metadata and Freshness、Semantic HTML、Structured Dataに関連する柱は、引用と最も強い関連性を示した。
ドメインクラスタ化された標準誤差を持つロジスティックモデルは、ページ品質が引用の強い予測因子であることを示し、単純な操作点(例えば、G と少なくとも12のピラーヒットを組み合わせた G など)は、我々のデータにおいてかなり高い引用率と一致している。
エンジンのコントラスト,垂直効果,しきい値解析,診断などについて報告する。
この研究は観察的であり、英語のB2B SaaSページに焦点を当てており、制限、妥当性への脅威、再現性の検討について論じる。
関連論文リスト
- Automated MCQA Benchmarking at Scale: Evaluating Reasoning Traces as Retrieval Sources for Domain Adaptation of Small Language Models [7.232383381822326]
本稿では,複数の質問応答ベンチマークを生成するためのスケーラブルでモジュール化されたフレームワークを提案する。
私たちのパイプラインは,PDF解析,セマンティックチャンキング,質問生成,モデル評価など,MCQA生成のすべての段階を自動化する。
推論トレースの検索は、合成ベンチマークとエキスパートアノテートベンチマークの両方のパフォーマンスを継続的に改善する。
論文 参考訳(メタデータ) (2025-09-12T23:22:49Z) - Open-Source Agentic Hybrid RAG Framework for Scientific Literature Review [2.092154729589438]
本稿では,ハイブリッドRAGパイプラインを自律エージェント内にカプセル化するエージェントアプローチを提案する。
当社のパイプラインでは,PubMedやarXiv,Google Scholar APIから,バイオロジカルなオープンアクセスデータを収集しています。
Llama-3.3-70B エージェントが GraphRAG (クエリを Cypher for KG に変換する) または VectorRAG (スパースと高密度検索を組み合わせて再ランク付けする) を選択する
論文 参考訳(メタデータ) (2025-07-30T18:54:15Z) - Beyond SEO: A Transformer-Based Approach for Reinventing Web Content Optimisation [0.0]
生成エンジン最適化(GEO)のためのドメイン固有の微調整手法を提案する。
提案手法は,1,905個のWebサイトコンテンツペアからなる合成学習データに基づいて,BARTベースのトランスフォーマーを微調整する。
最適化されたコンテンツは、生成的検索応答において顕著な可視性の向上を示し、15.63%の絶対的な単語数の改善、30.96%の位置調整された単語数メトリクスの改善がある。
論文 参考訳(メタデータ) (2025-07-03T20:52:10Z) - SciSage: A Multi-Agent Framework for High-Quality Scientific Survey Generation [2.985620880452744]
SciSageはリフレクション・ワン・ユー・ライト・パラダイムを使ったマルチエージェント・フレームワークである。
アウトライン、セクション、ドキュメントレベルでのドラフトを批判的に評価し、クエリの解釈、コンテンツ検索、洗練のための特別なエージェントと協調する。
また、11のコンピュータサイエンス領域にわたる46のハイインパクト論文(2020-2025)のベンチマークであるSurveyScopeをリリースしています。
論文 参考訳(メタデータ) (2025-06-15T02:23:47Z) - TrustRAG: An Information Assistant with Retrieval Augmented Generation [73.84864898280719]
TrustRAGは、インデックス付け、検索、生成という3つの視点から、acRAGを強化する新しいフレームワークである。
我々はTrustRAGフレームワークをオープンソース化し、抜粋ベースの質問応答タスク用に設計されたデモスタジオを提供する。
論文 参考訳(メタデータ) (2025-02-19T13:45:27Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - KG-CTG: Citation Generation through Knowledge Graph-guided Large Language Models [35.80247519023821]
Citation Text Generation (CTG) は、自然言語処理(NLP)において、引用された文書を正確に引用または参照することを目的としたタスクである。
本稿では,大規模言語モデル(LLM)を引用生成のタスクに活用するためのフレームワークと比較研究について述べる。
論文 参考訳(メタデータ) (2024-04-15T13:06:32Z) - MegaWika: Millions of reports and their sources across 50 diverse
languages [74.3909725023673]
MegaWikaは、50の言語で1300万のWikipedia記事と、7100万の参考資料で構成されている。
我々は、このデータセットを無数のアプリケーションに処理し、非英語の記事を言語間アプリケーションに翻訳する。
MegaWikaは、文レベルのレポート生成のための最大のリソースであり、マルチランガルである唯一のレポート生成データセットである。
論文 参考訳(メタデータ) (2023-07-13T20:04:02Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。