論文の概要: Crafting Knowledge: Exploring the Creative Mechanisms of Chat-Based
Search Engines
- arxiv url: http://arxiv.org/abs/2402.19421v1
- Date: Thu, 29 Feb 2024 18:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 13:39:21.089613
- Title: Crafting Knowledge: Exploring the Creative Mechanisms of Chat-Based
Search Engines
- Title(参考訳): crafting knowledge: チャットベースの検索エンジンの創造的メカニズムを探求する
- Authors: Lijia Ma, Xingchen Xu, Yong Tan
- Abstract要約: 本研究の目的は,LLMを利用した検索エンジン,特にBing Chatが応答情報ソースを選択するメカニズムを解明することである。
Bing Chatは読みやすく、形式的に構造化されたコンテンツを好むだけでなく、より低いパープレキシティレベルを示す。
本調査では,RAG技術が引用するWebサイトと従来の検索エンジンの上位のWebサイトとの類似性を比較検討した。
- 参考スコア(独自算出の注目度): 3.5845457075304368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the domain of digital information dissemination, search engines act as
pivotal conduits linking information seekers with providers. The advent of
chat-based search engines utilizing Large Language Models (LLMs) and Retrieval
Augmented Generation (RAG), exemplified by Bing Chat, marks an evolutionary
leap in the search ecosystem. They demonstrate metacognitive abilities in
interpreting web information and crafting responses with human-like
understanding and creativity. Nonetheless, the intricate nature of LLMs renders
their "cognitive" processes opaque, challenging even their designers'
understanding. This research aims to dissect the mechanisms through which an
LLM-powered chat-based search engine, specifically Bing Chat, selects
information sources for its responses. To this end, an extensive dataset has
been compiled through engagements with New Bing, documenting the websites it
cites alongside those listed by the conventional search engine. Employing
natural language processing (NLP) techniques, the research reveals that Bing
Chat exhibits a preference for content that is not only readable and formally
structured, but also demonstrates lower perplexity levels, indicating a unique
inclination towards text that is predictable by the underlying LLM. Further
enriching our analysis, we procure an additional dataset through interactions
with the GPT-4 based knowledge retrieval API, unveiling a congruent text
preference between the RAG API and Bing Chat. This consensus suggests that
these text preferences intrinsically emerge from the underlying language
models, rather than being explicitly crafted by Bing Chat's developers.
Moreover, our investigation documents a greater similarity among websites cited
by RAG technologies compared to those ranked highest by conventional search
engines.
- Abstract(参考訳): デジタル情報拡散の分野では、検索エンジンは情報探索者と提供者を結ぶ重要なコンデュートとして機能する。
大規模言語モデル(llms)と検索拡張生成(rag)を利用したチャットベースの検索エンジンの出現は、bing chatの例だが、検索エコシステムにおける進化的な飛躍を示している。
ウェブ情報を解釈し、人間のような理解と創造性で反応するメタ認知能力を示す。
それでも、LLMの複雑な性質は、その「認知的」プロセスが不透明であり、デザイナーの理解にも挑戦する。
本研究の目的は、LLMを利用したチャットベースの検索エンジン、特にBing Chatが応答に関する情報ソースを選択するメカニズムを解明することである。
この目的のために、New Bingとのエンゲージメントを通じて広範なデータセットがコンパイルされ、従来の検索エンジンにリストアップされたウェブサイトと共に引用されるウェブサイトが記録されている。
自然言語処理(NLP)技術を用いて、Bing Chatは読みやすく、形式的に構造化されたコンテンツを好むだけでなく、低いパープレキシティレベルを示し、基礎となるLLMによって予測可能なテキストへの独自の傾きを示す。
さらに分析を充実させ,GAT-4ベースの知識検索APIとのインタラクションを通じて,RAG APIとBing Chatの一致したテキスト嗜好を明らかにすることで,新たなデータセットを取得する。
この合意は、これらのテキストの好みがBing Chatの開発者によって明示的に作成されるのではなく、本質的に基盤となる言語モデルから現れることを示唆している。
さらに,rag 技術が引用する web サイトと,従来の検索エンジンで上位の web サイトとの類似度が高かった。
関連論文リスト
- A Survey of Conversational Search [44.09402706387407]
会話検索における最近の進歩と今後の方向性について検討する。
これらのシステムの拡張において,大規模言語モデル(LLM)の統合を強調した。
我々は,現実のアプリケーションに対する洞察と,現在の対話型検索システムの堅牢な評価を提供する。
論文 参考訳(メタデータ) (2024-10-21T01:54:46Z) - Ranking Manipulation for Conversational Search Engines [7.958276719131612]
本稿では,対話型検索エンジンが参照するソースのランク付け順序に対するインジェクションのインジェクションの影響について検討する。
低品位製品を確実に促進する攻撃木を用いた脱獄技術を提案する。
論文 参考訳(メタデータ) (2024-06-05T19:14:21Z) - Redefining Information Retrieval of Structured Database via Large Language Models [10.117751707641416]
本稿では,ChatLRと呼ばれる新しい検索拡張フレームワークを提案する。
主に、Large Language Models (LLM) の強力な意味理解能力を用いて、正確かつ簡潔な情報検索を実現する。
実験の結果、ChatLRがユーザクエリに対処する効果を示し、全体の情報検索精度は98.8%を超えた。
論文 参考訳(メタデータ) (2024-05-09T02:37:53Z) - The Use of Generative Search Engines for Knowledge Work and Complex Tasks [26.583783763090732]
Bing Copilotを使うタスクのタイプと複雑さをBing Searchと比較して分析する。
発見は、従来の検索エンジンよりも認知の複雑さが高い知識作業タスクのために、人々が生成検索エンジンを使用していることを示している。
論文 参考訳(メタデータ) (2024-03-19T18:17:46Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z) - A New Neural Search and Insights Platform for Navigating and Organizing
AI Research [56.65232007953311]
我々は、古典的なキーワード検索とニューラル検索を組み合わせた新しいプラットフォームであるAI Research Navigatorを導入し、関連する文献を発見し整理する。
本稿では,システム全体のアーキテクチャの概要と,文書分析,質問応答,検索,分析,専門家検索,レコメンデーションの構成要素について概説する。
論文 参考訳(メタデータ) (2020-10-30T19:12:25Z) - Conversations with Search Engines: SERP-based Conversational Response
Generation [77.1381159789032]
我々は、検索エンジンと対話するためのパイプラインを開発するために、適切なデータセット、検索・アズ・ア・会話(SaaC)データセットを作成します。
また、このデータセットを用いて、検索エンジンと対話するための最先端パイプライン(Conversations with Search Engines (CaSE))も開発しています。
CaSEは、サポートされたトークン識別モジュールとプリア・アウェア・ポインタージェネレータを導入することで最先端を向上する。
論文 参考訳(メタデータ) (2020-04-29T13:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。