論文の概要: The Discovery Gap: How Product Hunt Startups Vanish in LLM Organic Discovery Queries
- arxiv url: http://arxiv.org/abs/2601.00912v1
- Date: Thu, 01 Jan 2026 04:30:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.847371
- Title: The Discovery Gap: How Product Hunt Startups Vanish in LLM Organic Discovery Queries
- Title(参考訳): 発見のギャップ:LLMの有機的発見クエリでプロダクトハントが消える方法
- Authors: Amit Prakash Sharma,
- Abstract要約: ユーザーが名前で製品について尋ねると、ChatGPTとPerplexityはどちらもほぼ完璧に認識した。
しかし、ユーザーが「今年ローンチした最高のAIツールは何ですか?」といった発見スタイルの質問をしたとき、成功率はそれぞれ3.32%と8.29%に低下した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When someone asks ChatGPT to recommend a project management tool, which products show up in the response? And more importantly for startup founders: will their newly launched product ever appear? This research set out to answer these questions. I randomly selected 112 startups from the top 500 products featured on the 2025 Product Hunt leaderboard and tested each one across 2,240 queries to two different large language models: ChatGPT (gpt-4o-mini) and Perplexity (sonar with web search). The results were striking. When users asked about products by name, both LLMs recognized them almost perfectly: 99.4% for ChatGPT and 94.3% for Perplexity. But when users asked discovery-style questions like "What are the best AI tools launched this year?" the success rates collapsed to 3.32% and 8.29% respectively. That's a gap of 30-to-1 for ChatGPT. Perhaps the most surprising finding was that Generative Engine Optimization (GEO), the practice of optimizing website content for AI visibility, showed no correlation with actual discovery rates. Products with high GEO scores were no more likely to appear in organic queries than products with low scores. What did matter? For Perplexity, traditional SEO signals like referring domains (r = +0.319, p < 0.001) and Product Hunt ranking (r = -0.286, p = 0.002) predicted visibility. After cleaning the Reddit data for false positives, community presence also emerged as significant (r = +0.395, p = 0.002). The practical takeaway is counterintuitive: don't optimize for AI discovery directly. Instead, build the SEO foundation first and LLM visibility will follow.
- Abstract(参考訳): 誰かがChatGPTにプロジェクト管理ツールを推奨するよう頼んだとき、どの製品が応答に現れますか?
そして、スタートアップのファウンダーにとってさらに重要なことは、彼らの新しく立ち上げられた製品が現れるだろうか?
この研究はこれらの質問に答えた。
私は2025年のProduct Huntのリーダーボードに載った上位500のプロダクトから112のスタートアップをランダムに選び、それぞれ2240のクエリから2つの大きな言語モデル、ChatGPT(gpt-4o-mini)とPerplexity(Web検索と組み合わせて)をテストした。
結果は衝撃的だった。
ユーザが名前で製品について尋ねると、両方のLLMはそれらをほぼ完全に認識した: ChatGPTの99.4%、Perplexityの94.3%。
しかし、ユーザーが「今年ローンチした最高のAIツールは何ですか?」といった発見スタイルの質問をしたとき、成功率はそれぞれ3.32%と8.29%に低下した。
これはChatGPTの30対1のギャップです。
おそらく最も驚くべき発見は、WebサイトコンテンツをAIの可視性のために最適化するGEO(Generative Engine Optimization)が、実際の発見率と相関しないことだ。
GEOスコアが高い製品は、低スコアの製品よりも有機的なクエリに現れにくい。
何が問題だったのか?
Perplexityでは、参照ドメイン(r = +0.319, p < 0.001)やProduct Huntランキング(r = -0.286, p = 0.002)のような従来のSEO信号が可視性を予測する。
Redditで偽陽性のデータをクリーニングした後、コミュニティの存在も重要となった(r = +0.395, p = 0.002)。
AI発見を直接最適化するな。
代わりに、まずSEOファウンデーションを構築し、LCMの可視性に従う。
関連論文リスト
- Tree Search for Language Model Agents [73.97960454223164]
対話型Web環境での探索と多段階計画を行うために,LMエージェントの推論時探索アルゴリズムを提案する。
我々のアプローチは、実環境空間内で機能する最優先木探索の一形態である。
現実的なWebタスクにおいて有効性を示すLMエージェントのための最初の木探索アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-01T17:07:55Z) - Manipulating Large Language Models to Increase Product Visibility [27.494854085799076]
大規模言語モデル(LLM)は、ユーザクエリに適した自然言語応答を提供するために、検索エンジンに統合されつつある。
製品の可視性を高めるため,LCMからのレコメンデーションを操作できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-04-11T17:57:32Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Evaluating ChatGPT as a Recommender System: A Rigorous Approach [12.458752059072706]
本稿では,ChatGPTのRSとしての能力とプロセス後ChatGPTレコメンデーションを評価するためのロバストな評価パイプラインを提案する。
モデルの機能は,トップNレコメンデーション,コールドスタートレコメンデーション,リコメンデーションリストの再ランクの3つの設定で分析する。
論文 参考訳(メタデータ) (2023-09-07T10:13:09Z) - Is ChatGPT Good at Search? Investigating Large Language Models as Re-Ranking Agents [53.78782375511531]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Follow Us and Become Famous! Insights and Guidelines From Instagram
Engagement Mechanisms [34.56524908056281]
ポストの人気を予測するための様々な方法が提案されている。
これらの手法は、2021年に重要になったコメントの数を無視して、このような予測に重点を置いている。
より優れたアプローチは、人やIGの好みに基づいた投稿を生成することだ。
我々は、34Kのグローバルインフルエンサーが作成した1000万のポストのグローバルデータセットを使用して、広範な実験を行う。
論文 参考訳(メタデータ) (2023-01-17T11:26:34Z) - Public awareness and attitudes towards search engine optimization [4.429709236737153]
ユーザーの43%は、Googleにお金を払わずにより良いランキングを達成できると考えている。
広告が有機的な結果とどのように異なるかは29.2%しか知らない。
59.2%はSEOが(非常に)ランキングに強い影響を与えていると仮定している。
論文 参考訳(メタデータ) (2022-04-21T13:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。