論文の概要: MindSearch: Mimicking Human Minds Elicits Deep AI Searcher
- arxiv url: http://arxiv.org/abs/2407.20183v1
- Date: Mon, 29 Jul 2024 17:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 12:55:07.175802
- Title: MindSearch: Mimicking Human Minds Elicits Deep AI Searcher
- Title(参考訳): MindSearch: 深層AIサーチを緩和する人間的マインド
- Authors: Zehui Chen, Kuikun Liu, Qiuchen Wang, Jiangning Liu, Wenwei Zhang, Kai Chen, Feng Zhao,
- Abstract要約: 我々は、Web情報検索と統合における人間の心を模倣するMindSearchを紹介した。
このフレームワークは、シンプルだが効果的なLLMベースのマルチエージェントフレームワークによってインスタンス化できる。
MindSearchは、深さと幅の点でレスポンス品質が大幅に改善されている。
- 参考スコア(独自算出の注目度): 20.729251584466983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information seeking and integration is a complex cognitive task that consumes enormous time and effort. Inspired by the remarkable progress of Large Language Models, recent works attempt to solve this task by combining LLMs and search engines. However, these methods still obtain unsatisfying performance due to three challenges: (1) complex requests often cannot be accurately and completely retrieved by the search engine once (2) corresponding information to be integrated is spread over multiple web pages along with massive noise, and (3) a large number of web pages with long contents may quickly exceed the maximum context length of LLMs. Inspired by the cognitive process when humans solve these problems, we introduce MindSearch to mimic the human minds in web information seeking and integration, which can be instantiated by a simple yet effective LLM-based multi-agent framework. The WebPlanner models the human mind of multi-step information seeking as a dynamic graph construction process: it decomposes the user query into atomic sub-questions as nodes in the graph and progressively extends the graph based on the search result from WebSearcher. Tasked with each sub-question, WebSearcher performs hierarchical information retrieval with search engines and collects valuable information for WebPlanner. The multi-agent design of MindSearch enables the whole framework to seek and integrate information parallelly from larger-scale (e.g., more than 300) web pages in 3 minutes, which is worth 3 hours of human effort. MindSearch demonstrates significant improvement in the response quality in terms of depth and breadth, on both close-set and open-set QA problems. Besides, responses from MindSearch based on InternLM2.5-7B are preferable by humans to ChatGPT-Web and Perplexity.ai applications, which implies that MindSearch can already deliver a competitive solution to the proprietary AI search engine.
- Abstract(参考訳): 情報検索と統合は、膨大な時間と労力を消費する複雑な認知タスクである。
大規模言語モデルの顕著な進歩にインスパイアされた最近の研究は、LLMと検索エンジンを組み合わせてこの問題を解決しようとしている。
しかし,これらの手法は,(1) 複雑な要求を正確にかつ完全に検索することができない場合が多く,(2) 統合すべき情報が大量のノイズとともに複数のWebページに広まってしまう場合,(3) 長いコンテンツを持つ多数のWebページがLLMの最大コンテキスト長を急速に超える可能性がある,という3つの課題により,未だに満足のいく性能が得られていない。
これらの問題を解決するための認知プロセスに触発されて、Web情報検索と統合において人間の心を模倣するMindSearchを導入し、シンプルなLLMベースのマルチエージェントフレームワークによってインスタンス化することができる。
WebPlannerは、動的グラフ構築プロセスとして探究するマルチステップ情報の人間の心をモデル化する: ユーザクエリをグラフ内のノードとしてアトミックなサブクエリに分解し、WebSearcherの検索結果に基づいてグラフを徐々に拡張する。
サブクエスト毎にWebSearcherは,検索エンジンを用いて階層的な情報検索を行い,WebPlannerに有用な情報を収集する。
MindSearchのマルチエージェント設計により、フレームワーク全体が3分で大規模(例えば300ページ以上)のWebページから情報を探し、統合することができます。
MindSearchは、クローズセットとオープンセットの両方のQA問題に対して、深さと幅の面で、レスポンス品質を著しく改善する。
さらに、InternLM2.5-7Bに基づくMindSearchからの応答は、人間がChatGPT-WebおよびPerplexity.aiアプリケーションに優先する。
関連論文リスト
- Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [102.31558123570437]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - MMSearch: Benchmarking the Potential of Large Models as Multi-modal Search Engines [91.08394877954322]
大規模マルチモーダルモデル(LMM)は、AI検索エンジンにおいて目覚ましい進歩を遂げた。
しかし、AI検索エンジンとして機能するかどうかはまだ未定だ。
まず,マルチモーダル検索機能を備えた任意のLMMに対して,センシティブなパイプラインMMSearch-Engineを設計する。
論文 参考訳(メタデータ) (2024-09-19T17:59:45Z) - Tree Search for Language Model Agents [69.43007235771383]
対話型Web環境での探索と多段階計画を行うために,LMエージェントの推論時探索アルゴリズムを提案する。
我々のアプローチは、実環境空間内で機能する最優先木探索の一形態である。
現実的なWebタスクにおいて有効性を示すLMエージェントのための最初の木探索アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-01T17:07:55Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - CoSearchAgent: A Lightweight Collaborative Search Agent with Large
Language Models [13.108014924612114]
大規模言語モデル(LLM)を利用した軽量協調検索エージェントであるCoSearchAgentを提案する。
CoSearchAgentはSlackプラグインとして設計されており、このプラットフォーム上での多人数会話中の協調検索をサポートする。
検索結果に基づいた回答でユーザクエリに応答できる。
論文 参考訳(メタデータ) (2024-02-09T12:10:00Z) - Advancing the Search Frontier with AI Agents [6.839870353268828]
複雑な検索タスクは、初歩的な事実発見や再定義のサポート以上のものを必要とする。
近年の人工人工知能(AI)の出現は、検索者にさらなる支援を提供する可能性がある。
この記事では、これらの問題とAIエージェントが検索システムの能力のフロンティアをいかに前進させているかを考察する。
論文 参考訳(メタデータ) (2023-11-02T13:43:22Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - WebCPM: Interactive Web Search for Chinese Long-form Question Answering [104.676752359777]
LFQA(Long-form Question answering)は、複雑でオープンな質問に、段落長の詳細な回答で答えることを目的としている。
中国初のLFQAデータセットであるWebCPMを紹介する。
高品質な質問応答対5,500件,支援事実14,315件,Web検索121,330件を収集した。
論文 参考訳(メタデータ) (2023-05-11T14:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。