論文の概要: C-SEO Bench: Does Conversational SEO Work?
- arxiv url: http://arxiv.org/abs/2506.11097v1
- Date: Fri, 06 Jun 2025 10:49:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.455384
- Title: C-SEO Bench: Does Conversational SEO Work?
- Title(参考訳): C-SEO Bench: 会話型のSEOは機能するのか?
- Authors: Haritz Puerto, Martin Gubri, Tommaso Green, Seong Joon Oh, Sangdoo Yun,
- Abstract要約: 大規模言語モデル (LLM) は,検索エンジンを会話型検索エンジン (CSE) に変換する。
C-SEO Benchは、複数のタスク、ドメイン、アクター数にまたがるC-SEOメソッドを評価するために設計された最初のベンチマークである。
文献で報告された結果とは対照的に,現在のC-SEO法はほとんど無効果であることが明らかとなった。
- 参考スコア(独自算出の注目度): 36.044522516005884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are transforming search engines into Conversational Search Engines (CSE). Consequently, Search Engine Optimization (SEO) is being shifted into Conversational Search Engine Optimization (C-SEO). We are beginning to see dedicated C-SEO methods for modifying web documents to increase their visibility in CSE responses. However, they are often tested only for a limited breadth of application domains; we do not understand whether certain C-SEO methods would be effective for a broad range of domains. Moreover, existing evaluations consider only a single-actor scenario where only one web document adopts a C-SEO method; in reality, multiple players are likely to competitively adopt the cutting-edge C-SEO techniques, drawing an analogy from the dynamics we have seen in SEO. We present C-SEO Bench, the first benchmark designed to evaluate C-SEO methods across multiple tasks, domains, and number of actors. We consider two search tasks, question answering and product recommendation, with three domains each. We also formalize a new evaluation protocol with varying adoption rates among involved actors. Our experiments reveal that most current C-SEO methods are largely ineffective, contrary to reported results in the literature. Instead, traditional SEO strategies, those aiming to improve the ranking of the source in the LLM context, are significantly more effective. We also observe that as we increase the number of C-SEO adopters, the overall gains decrease, depicting a congested and zero-sum nature of the problem. Our code and data are available at https://github.com/parameterlab/c-seo-bench and https://huggingface.co/datasets/parameterlab/c-seo-bench.
- Abstract(参考訳): LLM(Large Language Models)は、検索エンジンをCSE(Conversational Search Engines)に変換する。
その結果、検索エンジン最適化(SEO)は、C-SEO(Conversational Search Engine Optimization)へと移行しつつある。
CSE応答の可視性を高めるために、Webドキュメントを修正するための専用のC-SEOメソッドが登場し始めている。
しかし、これらのメソッドはアプリケーションドメインの限られた範囲でのみテストされることが多く、特定のC-SEOメソッドが広範囲のドメインに有効であるかどうかは不明です。
さらに、既存の評価では、1つのWebドキュメントだけがC-SEOメソッドを採用する単一のアクターシナリオのみを考慮する。
C-SEO Benchは、複数のタスク、ドメイン、アクター数にまたがるC-SEOメソッドを評価するために設計された最初のベンチマークである。
質問応答と製品レコメンデーションという2つの検索タスクをそれぞれ3つのドメインで検討する。
また,アクター間の採用率の異なる新たな評価プロトコルを定式化した。
文献で報告された結果とは対照的に,現在のC-SEO法はほとんど無効果であることが明らかとなった。
その代わり、従来のSEO戦略は、LLMコンテキストにおけるソースのランキングを改善することを目的としており、より効果的である。
また,C-SEO導入者の数が増えるにつれて,この問題の混雑とゼロサムの性質を反映して,全体のゲインが減少することが観察された。
私たちのコードとデータはhttps://github.com/parameterlab/c-seo-benchとhttps://huggingface.co/datasets/parameterlab/c-seo-benchで利用可能です。
関連論文リスト
- LLM-DSE: Searching Accelerator Parameters with LLM Agents [34.75581582648836]
LLM-DSEは、HLSディレクティブの最適化に特化したマルチエージェントフレームワークである。
我々の探検家は、ルーター、スペシャリスト、アビテーター、批評家の4人のエージェントを調整します。
LLM-DSEは最先端の手法よりも2.55倍の性能向上を実現している。
論文 参考訳(メタデータ) (2025-05-18T01:31:42Z) - Tree Search for Language Model Agents [69.43007235771383]
対話型Web環境での探索と多段階計画を行うために,LMエージェントの推論時探索アルゴリズムを提案する。
我々のアプローチは、実環境空間内で機能する最優先木探索の一形態である。
現実的なWebタスクにおいて有効性を示すLMエージェントのための最初の木探索アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-01T17:07:55Z) - Mitigating Boundary Ambiguity and Inherent Bias for Text Classification in the Era of Large Language Models [24.085614720512744]
本研究では,大規模言語モデル (LLM) がテキスト分類における選択肢の数や配置の変化に対して脆弱であることを示す。
重要なボトルネックは、曖昧な決定境界と、特定のトークンや位置に対する固有のバイアスから生じます。
我々のアプローチは、ペア比較が境界のあいまいさと固有のバイアスを効果的に緩和できるという経験的観察に基づいている。
論文 参考訳(メタデータ) (2024-06-11T06:53:19Z) - Frequency-based Matcher for Long-tailed Semantic Segmentation [22.199174076366003]
我々は、比較的未探索なタスク設定、長い尾のセマンティックセマンティックセグメンテーション(LTSS)に焦点を当てる。
本稿では,セマンティックセグメンテーション手法と長鎖解の性能を示すために,二値評価システムを提案し,LTSSベンチマークを構築した。
また,1対1のマッチングによって過剰な圧縮問題を解決する周波数ベースのマーカであるLTSSを改善するトランスフォーマーベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-06T09:57:56Z) - SLIDE: A Framework Integrating Small and Large Language Models for Open-Domain Dialogues Evaluation [23.203761925540736]
対話評価のためのフレームワークSLIDE(Small and Large Integrated for Dialogue Evaluation)を提案する。
本手法は, 分類タスクと評価タスクの両方において最先端のパフォーマンスを達成し, また, SLIDEは人的評価器との相関性も良好である。
論文 参考訳(メタデータ) (2024-05-24T20:32:49Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Unsupervised Sentence Textual Similarity with Compositional Phrase
Semantics [8.729329792251578]
テキスト類似度の測定(STS)は、多くのダウンストリームNLPアプリケーションに適用可能な古典的なタスクである。
本稿では、様々な領域で動作するが、最小限のデータと計算資源しか必要としない教師なしSTSに焦点を当てる。
論文 参考訳(メタデータ) (2022-10-05T14:14:04Z) - Dynamic Matching Bandit For Two-Sided Online Markets [13.185106969638877]
両面のオンラインマッチングプラットフォームは、様々な市場で採用されている。
現在の市場でのエージェントの好みは通常暗黙的で不明である。
本稿では,この動的オンラインマッチング問題に対して,文脈情報を用いた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-07T18:28:20Z) - TSDAE: Using Transformer-based Sequential Denoising Auto-Encoder for
Unsupervised Sentence Embedding Learning [53.32740707197856]
TSDAE(Sequential Denoising Auto-Encoder)を用いた最新の非監視方式を提案する。
ドメイン内の監視されたアプローチのパフォーマンスの93.1%を達成することができる。
論文 参考訳(メタデータ) (2021-04-14T17:02:18Z) - RethinkCWS: Is Chinese Word Segmentation a Solved Task? [81.11161697133095]
中国語の単語(CWS)システムの性能は、ディープニューラルネットワークの急速な発展とともに、徐々に高水準に達している。
本稿では、私たちが達成した事柄の株式を取得し、CWSタスクに残されている事柄を再考する。
論文 参考訳(メタデータ) (2020-11-13T11:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。