論文の概要: Query Understanding in the Age of Large Language Models
- arxiv url: http://arxiv.org/abs/2306.16004v1
- Date: Wed, 28 Jun 2023 08:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:16:59.322068
- Title: Query Understanding in the Age of Large Language Models
- Title(参考訳): 大規模言語モデルの時代におけるクエリ理解
- Authors: Avishek Anand, Venktesh V, Abhijit Anand, Vinay Setty
- Abstract要約: 大規模言語モデル(LLM)を用いた対話型クエリ書き換えのための汎用フレームワークについて述べる。
我々のフレームワークの重要な側面は、自然言語で検索エンジンによって機械の意図を完全に指定できるリライタの能力である。
この対話型クエリ理解フレームワークに対するオープンな質問とともに、最初の実験を背景としたコンセプトを詳述する。
- 参考スコア(独自算出の注目度): 6.630482733703617
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Querying, conversing, and controlling search and information-seeking
interfaces using natural language are fast becoming ubiquitous with the rise
and adoption of large-language models (LLM). In this position paper, we
describe a generic framework for interactive query-rewriting using LLMs. Our
proposal aims to unfold new opportunities for improved and transparent intent
understanding while building high-performance retrieval systems using LLMs. A
key aspect of our framework is the ability of the rewriter to fully specify the
machine intent by the search engine in natural language that can be further
refined, controlled, and edited before the final retrieval phase. The ability
to present, interact, and reason over the underlying machine intent in natural
language has profound implications on transparency, ranking performance, and a
departure from the traditional way in which supervised signals were collected
for understanding intents. We detail the concept, backed by initial
experiments, along with open questions for this interactive query understanding
framework.
- Abstract(参考訳): 大規模言語モデル(llm)の普及と普及に伴い,自然言語を用いた検索・会話・制御や情報検索インターフェースが急速に普及している。
本稿では,LLMを用いた対話型クエリ書き換えのための汎用フレームワークについて述べる。
提案手法は,LLMを用いた高性能検索システムを構築しながら,改良的で透明な意図理解のための新たな機会を開拓することを目的としている。
我々のフレームワークの重要な側面は、最終検索フェーズの前にさらに洗練され、制御され、編集される自然言語において、リライターが検索エンジンによるマシンインテントを十分に指定できることである。
自然言語における機械の意図を表現、相互作用、推論する能力は、透明性、ランキングパフォーマンス、および意図を理解するために教師付きシグナルが収集される伝統的な方法からの離脱に重大な影響を与える。
この対話型クエリ理解フレームワークに対するオープンな質問とともに、最初の実験を背景としたコンセプトを詳述する。
関連論文リスト
- Self-Retrieval: Building an Information Retrieval System with One Large
Language Model [102.78988790457004]
Self-Retrievalは、エンドツーエンドのLLM駆動の情報検索アーキテクチャである。
本稿では,自己検索が従来の検索手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-02-23T18:45:35Z) - Navigating the Knowledge Sea: Planet-scale answer retrieval using LLMs [0.0]
情報検索は、技術と技術の継続的な改良によって特徴づけられる。
本稿では,従来の探索手法と解答の新たなパラダイムとのギャップを埋める上で,Large Language Models (LLMs) の役割に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-07T23:39:40Z) - Large Language User Interfaces: Voice Interactive User Interfaces
powered by LLMs [5.688209983513539]
本研究は,ユーザとユーザインターフェースの仲介として機能するフレームワークを構築するために,LCMの高機能化を図り,指導することに焦点を当てる。
この統合は、静的UIシステムを高度に動的で適応可能なソリューションに進化させ、インテリジェントでレスポンシブなユーザーエクスペリエンスの新しいフロンティアを導入する。
論文 参考訳(メタデータ) (2024-02-07T21:08:49Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Helping Language Models Learn More: Multi-dimensional Task Prompt for
Few-shot Tuning [36.14688633670085]
本稿では,タスク関連オブジェクト,要約,タスク記述情報に基づく多次元タスクプロンプト学習手法MTPromptを提案する。
提案するMTPromptは,適切なプロンプトを自動構築し,検索することで,いくつかのサンプル設定と5つの異なるデータセットに対して最適な結果が得られる。
論文 参考訳(メタデータ) (2023-12-13T10:00:44Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - Large Language Models for Information Retrieval: A Survey [57.7992728506871]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。