論文の概要: C-SEO Bench: Does Conversational SEO Work?
- arxiv url: http://arxiv.org/abs/2506.11097v2
- Date: Mon, 23 Jun 2025 13:56:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 14:54:00.3839
- Title: C-SEO Bench: Does Conversational SEO Work?
- Title(参考訳): C-SEO Bench: 会話型のSEOは機能するのか?
- Authors: Haritz Puerto, Martin Gubri, Tommaso Green, Seong Joon Oh, Sangdoo Yun,
- Abstract要約: 大規模言語モデル (LLM) は,検索エンジンを会話型検索エンジン (CSE) に変換する。
C-SEO Benchは、複数のタスク、ドメイン、アクター数にまたがるC-SEOメソッドを評価するために設計された最初のベンチマークである。
文献で報告された結果とは対照的に,現在のC-SEO法はほとんど無効果であることが明らかとなった。
- 参考スコア(独自算出の注目度): 36.044522516005884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are transforming search engines into Conversational Search Engines (CSE). Consequently, Search Engine Optimization (SEO) is being shifted into Conversational Search Engine Optimization (C-SEO). We are beginning to see dedicated C-SEO methods for modifying web documents to increase their visibility in CSE responses. However, they are often tested only for a limited breadth of application domains; we do not understand whether certain C-SEO methods would be effective for a broad range of domains. Moreover, existing evaluations consider only a single-actor scenario where only one web document adopts a C-SEO method; in reality, multiple players are likely to competitively adopt the cutting-edge C-SEO techniques, drawing an analogy from the dynamics we have seen in SEO. We present C-SEO Bench, the first benchmark designed to evaluate C-SEO methods across multiple tasks, domains, and number of actors. We consider two search tasks, question answering and product recommendation, with three domains each. We also formalize a new evaluation protocol with varying adoption rates among involved actors. Our experiments reveal that most current C-SEO methods are largely ineffective, contrary to reported results in the literature. Instead, traditional SEO strategies, those aiming to improve the ranking of the source in the LLM context, are significantly more effective. We also observe that as we increase the number of C-SEO adopters, the overall gains decrease, depicting a congested and zero-sum nature of the problem. Our code and data are available at https://github.com/parameterlab/c-seo-bench and https://huggingface.co/datasets/parameterlab/c-seo-bench.
- Abstract(参考訳): LLM(Large Language Models)は、検索エンジンをCSE(Conversational Search Engines)に変換する。
その結果、検索エンジン最適化(SEO)は、C-SEO(Conversational Search Engine Optimization)へと移行しつつある。
CSE応答の可視性を高めるために、Webドキュメントを修正するための専用のC-SEOメソッドが登場し始めている。
しかし、これらのメソッドはアプリケーションドメインの限られた範囲でのみテストされることが多く、特定のC-SEOメソッドが広範囲のドメインに有効であるかどうかは不明です。
さらに、既存の評価では、1つのWebドキュメントだけがC-SEOメソッドを採用する単一のアクターシナリオのみを考慮する。
C-SEO Benchは、複数のタスク、ドメイン、アクター数にまたがるC-SEOメソッドを評価するために設計された最初のベンチマークである。
質問応答と製品レコメンデーションという2つの検索タスクをそれぞれ3つのドメインで検討する。
また,アクター間の採用率の異なる新たな評価プロトコルを定式化した。
文献で報告された結果とは対照的に,現在のC-SEO法はほとんど無効果であることが明らかとなった。
その代わり、従来のSEO戦略は、LLMコンテキストにおけるソースのランキングを改善することを目的としており、より効果的である。
また,C-SEO導入者の数が増えるにつれて,この問題の混雑とゼロサムの性質を反映して,全体のゲインが減少することが観察された。
私たちのコードとデータはhttps://github.com/parameterlab/c-seo-benchとhttps://huggingface.co/datasets/parameterlab/c-seo-benchで利用可能です。
関連論文リスト
- Frequency-based Matcher for Long-tailed Semantic Segmentation [22.199174076366003]
我々は、比較的未探索なタスク設定、長い尾のセマンティックセマンティックセグメンテーション(LTSS)に焦点を当てる。
本稿では,セマンティックセグメンテーション手法と長鎖解の性能を示すために,二値評価システムを提案し,LTSSベンチマークを構築した。
また,1対1のマッチングによって過剰な圧縮問題を解決する周波数ベースのマーカであるLTSSを改善するトランスフォーマーベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-06T09:57:56Z) - SLIDE: A Framework Integrating Small and Large Language Models for Open-Domain Dialogues Evaluation [23.203761925540736]
対話評価のためのフレームワークSLIDE(Small and Large Integrated for Dialogue Evaluation)を提案する。
本手法は, 分類タスクと評価タスクの両方において最先端のパフォーマンスを達成し, また, SLIDEは人的評価器との相関性も良好である。
論文 参考訳(メタデータ) (2024-05-24T20:32:49Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Dynamic Matching Bandit For Two-Sided Online Markets [13.185106969638877]
両面のオンラインマッチングプラットフォームは、様々な市場で採用されている。
現在の市場でのエージェントの好みは通常暗黙的で不明である。
本稿では,この動的オンラインマッチング問題に対して,文脈情報を用いた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-07T18:28:20Z) - RethinkCWS: Is Chinese Word Segmentation a Solved Task? [81.11161697133095]
中国語の単語(CWS)システムの性能は、ディープニューラルネットワークの急速な発展とともに、徐々に高水準に達している。
本稿では、私たちが達成した事柄の株式を取得し、CWSタスクに残されている事柄を再考する。
論文 参考訳(メタデータ) (2020-11-13T11:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。