論文の概要: Boosting Search Engines with Interactive Agents
- arxiv url: http://arxiv.org/abs/2109.00527v1
- Date: Wed, 1 Sep 2021 13:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 14:12:20.368655
- Title: Boosting Search Engines with Interactive Agents
- Title(参考訳): 対話型エージェントによる検索エンジンの強化
- Authors: Leonard Adolphs, Benjamin Boerschinger, Christian Buck, Michelle Chen
Huebscher, Massimiliano Ciaramita, Lasse Espeholt, Thomas Hofmann, Yannic
Kilcher
- Abstract要約: 本稿では,文脈的クエリ改善のためのメタストラテジーを学習するエージェントの設計における第一歩について述べる。
エージェントには単純だが効果的な検索操作者がいて、クエリや検索結果のきめ細やかで透明な制御を行う。
- 参考スコア(独自算出の注目度): 25.89284695491093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can machines learn to use a search engine as an interactive tool for finding
information? That would have far reaching consequences for making the world's
knowledge more accessible. This paper presents first steps in designing agents
that learn meta-strategies for contextual query refinements. Our approach uses
machine reading to guide the selection of refinement terms from aggregated
search results. Agents are then empowered with simple but effective search
operators to exert fine-grained and transparent control over queries and search
results. We develop a novel way of generating synthetic search sessions, which
leverages the power of transformer-based generative language models through
(self-)supervised learning. We also present a reinforcement learning agent with
dynamically constrained actions that can learn interactive search strategies
completely from scratch. In both cases, we obtain significant improvements over
one-shot search with a strong information retrieval baseline. Finally, we
provide an in-depth analysis of the learned search policies.
- Abstract(参考訳): 機械は情報を見つけるための対話的なツールとして検索エンジンを学べるか?
それは世界の知識をよりアクセスしやすいものにする大きな結果をもたらすだろう。
本稿では,文脈的クエリ改善のためのメタストラテジーを学習するエージェントの設計における第一歩について述べる。
提案手法は,集約された検索結果から精選項の選択を誘導するために,機械読取を用いる。
エージェントは、単純だが効果的な検索オペレーターによって、クエリと検索結果のきめ細かい透明な制御を行う。
我々は,(自己)教師付き学習を通じてトランスフォーマティブ型生成言語モデルのパワーを活用する合成検索セッションを生成する新しい手法を開発した。
また,対話型検索戦略をゼロから完全に学習できる動的制約付き強化学習エージェントを提案する。
いずれの場合も,強力な情報検索ベースラインを持つワンショット検索よりも大幅な改善が得られた。
最後に,学習した検索ポリシーの詳細な分析を行う。
関連論文リスト
- Learning to Rank for Multiple Retrieval-Augmented Models through Iterative Utility Maximization [21.115495457454365]
本稿では,複数検索拡張世代(RAG)エージェントを対象とした統合検索エンジンの設計について検討する。
本稿では,これらのRAGエージェントの検索結果を検索エンジンが生成し,オフラインで検索した文書の品質に関するフィードバックを収集する反復的手法を提案する。
我々は、このアプローチをオンライン環境に適応させ、リアルタイムな個別エージェントのフィードバックに基づいて、検索エンジンがその振る舞いを洗練できるようにする。
論文 参考訳(メタデータ) (2024-10-13T17:53:50Z) - Web Retrieval Agents for Evidence-Based Misinformation Detection [12.807650005708911]
本稿では,誤情報検出のためのエージェントベース自動事実チェック手法を提案する。
検索にインターネットにアクセスできない強力なLLMエージェントとオンライン検索エージェントを組み合わせることで,各ツールを独立して使用する場合よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-08-15T15:13:16Z) - Query-oriented Data Augmentation for Session Search [71.84678750612754]
本稿では,検索ログの強化とモデリングの強化を目的としたクエリ指向データ拡張を提案する。
検索コンテキストの最も重要な部分を変更することで補足的なトレーニングペアを生成する。
我々は、現在のクエリを変更するためのいくつかの戦略を開発し、その結果、様々な難易度で新しいトレーニングデータを得る。
論文 参考訳(メタデータ) (2024-07-04T08:08:33Z) - Tree Search for Language Model Agents [69.43007235771383]
対話型Web環境での探索と多段階計画を行うために,LMエージェントの推論時探索アルゴリズムを提案する。
我々のアプローチは、実環境空間内で機能する最優先木探索の一形態である。
現実的なWebタスクにおいて有効性を示すLMエージェントのための最初の木探索アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-01T17:07:55Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - Enhancing Cloud-Based Large Language Model Processing with Elasticsearch
and Transformer Models [17.09116903102371]
LLM(Large Language Models)は、Transformerネットワークを使用して構築された生成AIモデルのクラスである。
LLMは膨大なデータセットを活用して、言語を特定し、要約し、翻訳し、予測し、生成することができる。
大規模言語モデルにおける意味ベクトル探索は,検索結果の精度と妥当性を大幅に向上させる強力な手法である。
論文 参考訳(メタデータ) (2024-02-24T12:31:22Z) - Navigating the Knowledge Sea: Planet-scale answer retrieval using LLMs [0.0]
情報検索は、技術と技術の継続的な改良によって特徴づけられる。
本稿では,従来の探索手法と解答の新たなパラダイムとのギャップを埋める上で,Large Language Models (LLMs) の役割に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-07T23:39:40Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Deep Reinforcement Agent for Efficient Instant Search [14.086339486783018]
本稿では,関連する文書を検索する上で,意味的により健全なトークンを識別することで,負荷問題に対処することを提案する。
我々は、検索エンジンと直接対話し、単語の重要性を予測する強化エージェントを訓練する。
トリガーサーチ数とシステム性能のトレードオフを研究するために,新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-17T22:47:15Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。