論文の概要: Querying Large Language Models with SQL
- arxiv url: http://arxiv.org/abs/2304.00472v3
- Date: Wed, 25 Oct 2023 08:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 21:24:25.822881
- Title: Querying Large Language Models with SQL
- Title(参考訳): SQLで大規模言語モデルをクエリする
- Authors: Mohammed Saeed, Nicola De Cao, Paolo Papotti
- Abstract要約: 多くのユースケースでは、情報はテキストに格納されるが、構造化データでは利用できない。
事前訓練されたLarge Language Models (LLMs) の台頭に伴い、大量のテキストコーパスから抽出された情報を保存および使用するための効果的なソリューションが現在存在する。
本稿では,従来のデータベースアーキテクチャに基づくプロトタイプであるGaloisについて紹介する。
- 参考スコア(独自算出の注目度): 16.383179496709737
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In many use-cases, information is stored in text but not available in
structured data. However, extracting data from natural language text to
precisely fit a schema, and thus enable querying, is a challenging task. With
the rise of pre-trained Large Language Models (LLMs), there is now an effective
solution to store and use information extracted from massive corpora of text
documents. Thus, we envision the use of SQL queries to cover a broad range of
data that is not captured by traditional databases by tapping the information
in LLMs. To ground this vision, we present Galois, a prototype based on a
traditional database architecture, but with new physical operators for querying
the underlying LLM. The main idea is to execute some operators of the the query
plan with prompts that retrieve data from the LLM. For a large class of SQL
queries, querying LLMs returns well structured relations, with encouraging
qualitative results. Preliminary experimental results make pre-trained LLMs a
promising addition to the field of database systems, introducing a new
direction for hybrid query processing. However, we pinpoint several research
challenges that must be addressed to build a DBMS that exploits LLMs. While
some of these challenges necessitate integrating concepts from the NLP
literature, others offer novel research avenues for the DB community.
- Abstract(参考訳): 多くのユースケースでは、情報はテキストに格納されるが、構造化データでは利用できない。
しかし、自然言語テキストからデータを抽出してスキーマに正確に適合させ、クエリを可能にすることは難しい課題である。
事前学習された大規模言語モデル(llm)の台頭により、大量のテキスト文書から抽出された情報を保存し利用するための効果的なソリューションが現在存在する。
そこで本研究では,従来のデータベースでは取得されていない幅広いデータをカバーするためにSQLクエリを使うことを想定する。
このビジョンを定着させるために、従来のデータベースアーキテクチャに基づいたプロトタイプであるgaloisを、基礎となるllmをクエリするための新しい物理オペレータとともに紹介する。
主な考え方は、LLMからデータを取得するプロンプトでクエリプランの演算子を実行することである。
大規模なSQLクエリでは、LLMのクエリは、定性的な結果を奨励して、よく構造化された関係を返す。
予備的な実験結果により、事前学習されたLLMはデータベースシステム分野への有望な追加となり、ハイブリッドクエリ処理のための新しい方向が導入された。
しかし、LLMを利用するDBMSを構築するために対処しなければならないいくつかの研究課題を指摘します。
これらの課題のいくつかは、NLP文献からの概念を統合する必要がある一方で、DBコミュニティに新しい研究の道を提供するものもあります。
関連論文リスト
- Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - Knowledge-to-SQL: Enhancing SQL Generation with Data Expert LLM [16.836007408933693]
既存のモデルは、データベーススキーマに従ってthesqlを生成するために、Large Language Modelsの能力に依存している。
我々は,あらゆるタイプのテキスト・トゥ・エキスパート・モデルに対して,適切な知識を利用する知識・ツー・エキスパート・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T09:10:04Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - Retrieval-augmented GPT-3.5-based Text-to-SQL Framework with
Sample-aware Prompting and Dynamic Revision Chain [21.593701177605652]
サンプルと動的リビジョンチェーンを含むテキスト・ツー・アウェア・プロンプト・フレームワークを提案する。
提案手法は,質問項目のサンプルと詳細な情報を含む。
人間の介入なしに実行可能で正確なスクルを生成するために、我々は、きめ細かいフィードバックを反復的に適応する動的リビジョンチェーンを設計する。
論文 参考訳(メタデータ) (2023-07-11T07:16:22Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - Retrieving Texts based on Abstract Descriptions [63.89087805237351]
埋め込みベクトル上の類似性検索は、クエリによる検索を可能にするが、埋め込みに反映される類似性は不定義であり、一貫性がない。
我々は,その内容の抽象的記述に基づいて文を検索する,明確に定義された一貫したタスクを同定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
論文 参考訳(メタデータ) (2023-05-21T17:14:31Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - P-Adapters: Robustly Extracting Factual Information from Language Models
with Diverse Prompts [7.657992756210283]
埋め込み層と大規模言語モデルの第一の注意層の間に位置する軽量モデルであるP-Adaptersを紹介します。
LLMの埋め込みを入力とし、LLMに問い合わせるのに使用される連続的なプロンプトを出力する。
それらは、一貫性の12~26%の絶対的な改善と、自然言語クエリのみを使用するベースラインよりも36~50%の精度の絶対的な改善を示す。
論文 参考訳(メタデータ) (2021-10-14T11:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。