論文の概要: Query Understanding in the Age of Large Language Models
- arxiv url: http://arxiv.org/abs/2306.16004v1
- Date: Wed, 28 Jun 2023 08:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:16:59.322068
- Title: Query Understanding in the Age of Large Language Models
- Title(参考訳): 大規模言語モデルの時代におけるクエリ理解
- Authors: Avishek Anand, Venktesh V, Abhijit Anand, Vinay Setty
- Abstract要約: 大規模言語モデル(LLM)を用いた対話型クエリ書き換えのための汎用フレームワークについて述べる。
我々のフレームワークの重要な側面は、自然言語で検索エンジンによって機械の意図を完全に指定できるリライタの能力である。
この対話型クエリ理解フレームワークに対するオープンな質問とともに、最初の実験を背景としたコンセプトを詳述する。
- 参考スコア(独自算出の注目度): 6.630482733703617
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Querying, conversing, and controlling search and information-seeking
interfaces using natural language are fast becoming ubiquitous with the rise
and adoption of large-language models (LLM). In this position paper, we
describe a generic framework for interactive query-rewriting using LLMs. Our
proposal aims to unfold new opportunities for improved and transparent intent
understanding while building high-performance retrieval systems using LLMs. A
key aspect of our framework is the ability of the rewriter to fully specify the
machine intent by the search engine in natural language that can be further
refined, controlled, and edited before the final retrieval phase. The ability
to present, interact, and reason over the underlying machine intent in natural
language has profound implications on transparency, ranking performance, and a
departure from the traditional way in which supervised signals were collected
for understanding intents. We detail the concept, backed by initial
experiments, along with open questions for this interactive query understanding
framework.
- Abstract(参考訳): 大規模言語モデル(llm)の普及と普及に伴い,自然言語を用いた検索・会話・制御や情報検索インターフェースが急速に普及している。
本稿では,LLMを用いた対話型クエリ書き換えのための汎用フレームワークについて述べる。
提案手法は,LLMを用いた高性能検索システムを構築しながら,改良的で透明な意図理解のための新たな機会を開拓することを目的としている。
我々のフレームワークの重要な側面は、最終検索フェーズの前にさらに洗練され、制御され、編集される自然言語において、リライターが検索エンジンによるマシンインテントを十分に指定できることである。
自然言語における機械の意図を表現、相互作用、推論する能力は、透明性、ランキングパフォーマンス、および意図を理解するために教師付きシグナルが収集される伝統的な方法からの離脱に重大な影響を与える。
この対話型クエリ理解フレームワークに対するオープンな質問とともに、最初の実験を背景としたコンセプトを詳述する。
関連論文リスト
- RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Large Language Models are Good Multi-lingual Learners : When LLMs Meet Cross-lingual Prompts [5.520335305387487]
本稿では,MLプロンプトという新しいプロンプト戦略を提案する。
MLPromptは、LLMが他の言語に追従するのに苦労するエラーを起こしやすいルールを翻訳する。
本稿では,MLPromptを構造化データ生成の自動チェック機構に統合するフレームワークと,テキストからMIPインスタンスへの特定のケーススタディを提案する。
論文 参考訳(メタデータ) (2024-09-17T10:33:27Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - Redefining Information Retrieval of Structured Database via Large Language Models [10.117751707641416]
本稿では,ChatLRと呼ばれる新しい検索拡張フレームワークを提案する。
主に、Large Language Models (LLM) の強力な意味理解能力を用いて、正確かつ簡潔な情報検索を実現する。
実験の結果、ChatLRがユーザクエリに対処する効果を示し、全体の情報検索精度は98.8%を超えた。
論文 参考訳(メタデータ) (2024-05-09T02:37:53Z) - Navigating the Knowledge Sea: Planet-scale answer retrieval using LLMs [0.0]
情報検索は、技術と技術の継続的な改良によって特徴づけられる。
本稿では,従来の探索手法と解答の新たなパラダイムとのギャップを埋める上で,Large Language Models (LLMs) の役割に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-07T23:39:40Z) - Large Language User Interfaces: Voice Interactive User Interfaces powered by LLMs [5.06113628525842]
ユーザとユーザインターフェース(UI)の仲介として機能するフレームワークを提案する。
アノテーションの形でUIコンポーネントのテキストセマンティックマッピングに立つシステムを採用している。
我々のエンジンは、最も適切なアプリケーションを分類し、関連するパラメータを抽出し、その後、ユーザの期待するアクションの正確な予測を実行することができる。
論文 参考訳(メタデータ) (2024-02-07T21:08:49Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。