論文の概要: Agentic NL2SQL to Reduce Computational Costs
- arxiv url: http://arxiv.org/abs/2510.14808v1
- Date: Thu, 16 Oct 2025 15:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.925416
- Title: Agentic NL2SQL to Reduce Computational Costs
- Title(参考訳): 計算コスト削減のためのエージェントNL2SQL
- Authors: Dominik Jehle, Lennart Purucker, Frank Hutter,
- Abstract要約: 我々は,LLMがNL2タスクをより効率的に解けるように設計されたエージェントシステムであるDatalake Agentを紹介する。
プロンプト内のすべてのメタ情報を一度呼び出すNL2の直接解法を利用する代わりに、Datalake Agentは、使用したメタ情報を減らすためにインタラクティブループを使用する。
我々は、テーブル質問応答タスク100の23のデータベースのコレクション上で、Datalake Agentを評価した。
- 参考スコア(独自算出の注目度): 45.21399037022976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translating natural language queries into SQL queries (NL2SQL or Text-to-SQL) has recently been empowered by large language models (LLMs). Using LLMs to perform NL2SQL methods on a large collection of SQL databases necessitates processing large quantities of meta-information about the databases, which in turn results in lengthy prompts with many tokens and high processing costs. To address this challenge, we introduce Datalake Agent, an agentic system designed to enable an LLM to solve NL2SQL tasks more efficiently. Instead of utilizing direct solvers for NL2SQL that call the LLM once with all meta-information in the prompt, the Datalake Agent employs an interactive loop to reduce the utilized meta-information. Within the loop, the LLM is used in a reasoning framework that selectively requests only the necessary information to solve a table question answering task. We evaluate the Datalake Agent on a collection of 23 databases with 100 table question answering tasks. The Datalake Agent reduces the tokens used by the LLM by up to 87\% and thus allows for substantial cost reductions while maintaining competitive performance.
- Abstract(参考訳): 自然言語クエリをSQLクエリ(NL2SQLまたはText-to-SQL)に変換することは、最近、大きな言語モデル(LLM)によって強化されている。
LLMを使って大量のSQLデータベース上でNL2SQLメソッドを実行するには、データベースに関する大量のメタ情報を処理する必要がある。
この課題に対処するために,LLMがNL2SQLタスクをより効率的に解けるように設計されたエージェントシステムであるDatalake Agentを紹介する。
プロンプト内のすべてのメタ情報を一度呼び出すNL2SQLの直接解決器を利用する代わりに、Datalake Agentは、使用したメタ情報を減らすためにインタラクティブループを使用する。
ループ内では、LLMは、テーブル質問応答タスクを解決するために必要な情報のみを選択的に要求する推論フレームワークで使用される。
我々は、テーブル質問応答タスク100の23のデータベースのコレクション上で、Datalake Agentを評価した。
Datalake AgentはLLMが使用するトークンを最大87\%削減し、競争性能を維持しながら大幅なコスト削減を可能にする。
関連論文リスト
- Weaver: Interweaving SQL and LLM for Table Reasoning [62.55797244714265]
Weaverは、構造化データ検索のためのsqlとセマンティック処理のためのLLMを組み合わせたフレキシブルなステップバイステッププランを生成する。
Weaverは、4つのTableQAデータセットで、最先端のメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2025-05-25T03:27:37Z) - Semantic Captioning: Benchmark Dataset and Graph-Aware Few-Shot In-Context Learning for SQL2Text [3.4688186440441893]
大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を示した。
逆のプロセスは、コードを自然言語に翻訳し、セマンティックキャプションと呼ばれるが、あまり注目されていない。
本稿では,クエリの理解と説明に関する重要なニーズに対処するため,2Textのキャプションに着目した。
論文 参考訳(メタデータ) (2025-01-06T17:36:09Z) - Relational Database Augmented Large Language Model [59.38841050766026]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクに優れる。
彼らは、トレーニングや教師付き微調整プロセスを通じてのみ、新しい知識を取り入れることができる。
この正確で最新のプライベート情報は、通常リレーショナルデータベースに格納される。
論文 参考訳(メタデータ) (2024-07-21T06:19:10Z) - PURPLE: Making a Large Language Model a Better SQL Writer [14.627323505405327]
NL2タスクに必要な論理演算子構成を含む実演を検索することで精度を向上させるPURPLEを提案する。
PURPLEは、一般的なNL2ベンチマークの検証セット上で80.5%の正確な一致精度と87.8%の実行一致精度という、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-29T07:01:29Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - Knowledge-to-SQL: Enhancing SQL Generation with Data Expert LLM [15.888784472807775]
既存のメソッドは、クエリを生成するための大規模言語モデル(LLM)の包括的な機能に依存している。
我々は,すべてのテキスト・トゥ・モデルに対して適切な知識を利用する知識・ツー・データ・エキスパート・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T09:10:04Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - Querying Large Language Models with SQL [16.383179496709737]
多くのユースケースでは、情報はテキストに格納されるが、構造化データでは利用できない。
事前訓練されたLarge Language Models (LLMs) の台頭に伴い、大量のテキストコーパスから抽出された情報を保存および使用するための効果的なソリューションが現在存在する。
本稿では,従来のデータベースアーキテクチャに基づくプロトタイプであるGaloisについて紹介する。
論文 参考訳(メタデータ) (2023-04-02T06:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。