論文の概要: Cost-Aware Text-to-SQL: An Empirical Study of Cloud Compute Costs for LLM-Generated Queries
- arxiv url: http://arxiv.org/abs/2512.22364v1
- Date: Fri, 26 Dec 2025 19:51:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.012095
- Title: Cost-Aware Text-to-SQL: An Empirical Study of Cloud Compute Costs for LLM-Generated Queries
- Title(参考訳): コスト対応のテキスト・トゥ・SQL: LLM生成クエリのクラウド・コンピューティング・コストに関する実証的研究
- Authors: Saurabh Deochake, Debajyoti Mukhopadhyay,
- Abstract要約: LLM(Large Language Models)を利用したテキスト・ツー・システムでは,標準ベンチマークの精度が向上する。
Valid Efficiency Score(VES)のような既存の効率指標は、クラウドデータウェアハウスの消費ベースのコストではなく、実行時間を測定する。
StackOverflowデータセット(230GB)を用いて,Google BigQuery上で180のクエリ実行を対象に,処理バイト,スロット利用,推定コストの計測を行った。
- 参考スコア(独自算出の注目度): 0.2578242050187029
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Text-to-SQL systems powered by Large Language Models (LLMs) achieve high accuracy on standard benchmarks, yet existing efficiency metrics such as the Valid Efficiency Score (VES) measure execution time rather than the consumption-based costs of cloud data warehouses. This paper presents the first systematic evaluation of cloud compute costs for LLM-generated SQL queries. We evaluate six state-of-the-art LLMs across 180 query executions on Google BigQuery using the StackOverflow dataset (230GB), measuring bytes processed, slot utilization, and estimated cost. Our analysis yields three key findings: (1) reasoning models process 44.5% fewer bytes than standard models while maintaining equivalent correctness (96.7%-100%); (2) execution time correlates weakly with query cost (r=0.16), indicating that speed optimization does not imply cost optimization; and (3) models exhibit up to 3.4x cost variance, with standard models producing outliers exceeding 36GB per query. We identify prevalent inefficiency patterns including missing partition filters and unnecessary full-table scans, and provide deployment guidelines for cost-sensitive enterprise environments.
- Abstract(参考訳): LLM(Large Language Models)を利用したテキストからSQLのシステムは、標準的なベンチマークで高い精度を達成するが、Valid Efficiency Score(VES)のような既存の効率指標は、クラウドデータウェアハウスの消費ベースのコストではなく、実行時間を測定する。
本稿では,LLM生成SQLクエリに対して,クラウド計算コストを初めて体系的に評価する。
StackOverflowデータセット(230GB)を用いて,Google BigQuery上で180のクエリ実行を対象に,処理バイト,スロット利用,推定コストの計測を行った。
分析の結果,(1) 推論モデルが標準モデルよりも44.5%少ないバイトを処理し(96.7%-100%)、(2) 実行時間がクエリコストと相関し(r=0.16)、速度最適化がコスト最適化を示唆しないことを示すとともに,(3) 標準モデルではクエリあたり36GB以上のアウトレーラを生成する。
我々は、分割フィルタの欠如や不要なフルテーブルスキャンなど、一般的な非効率パターンを特定し、コストに敏感な企業環境へのデプロイメントガイドラインを提供する。
関連論文リスト
- Cortex AISQL: A Production SQL Engine for Unstructured Data [11.480345698642006]
AIはSnowflakeで本番環境にデプロイされ、分析、検索、コンテンツ理解にまたがるさまざまな顧客のワークロードに電力を供給する。
本稿では、AI対応クエリ最適化が、AI推論コストを第一級最適化目標として扱う方法を示す。
第二に、適応モデルカスケードは、高速プロキシモデルを通じてほとんどの行をルーティングすることで、推論コストを削減する。
第三に、セマンティックなジョインクエリの書き換えは、ジョイン操作の二次的な時間の複雑さを線形に下げる。
論文 参考訳(メタデータ) (2025-11-10T22:14:13Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - Cost-Optimal Grouped-Query Attention for Long-Context Modeling [45.981681856747365]
Grouped-Query Attention(GQA)は、大規模言語モデルにおける注目層の計算コストを削減するための広く採用されている戦略である。
我々は,文脈長,モデルサイズ,GQA構成,モデル損失の関係を分析する。
コスト最適GQA構成の導出法を提案する。
論文 参考訳(メタデータ) (2025-03-12T17:50:42Z) - CHESS: Contextual Harnessing for Efficient SQL Synthesis [1.9506402593665235]
効率的でスケーラブルなテキスト・ツー・クエリのためのフレームワークであるCHESSを紹介します。
特殊エージェントは4つあり、それぞれが上記の課題の1つをターゲットにしている。
私たちのフレームワークは、さまざまなデプロイメント制約に適応する機能を提供する。
論文 参考訳(メタデータ) (2024-05-27T01:54:16Z) - Budget-aware Query Tuning: An AutoML Perspective [14.561951257365953]
現代のデータベースシステムは、入力クエリの優れた実行計画を作成するために、コストベースのクエリに依存している。
コストユニットの値を変えることで、デフォルトのクエリプランを大幅に上回るクエリプランを得ることができることを示す。
論文 参考訳(メタデータ) (2024-03-29T20:19:36Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning [58.71541261221863]
結合順序選択(JOS)は、クエリの実行コストを最小化するために結合操作を順序付けする問題である。
木質強化学習(RL)のためのクエリ最適化環境JoinGymを提案する。
JoinGymは内部で、事前計算されたデータセットから中間結果の濃度を調べることで、クエリプランのコストをシミュレートする。
論文 参考訳(メタデータ) (2023-07-21T17:00:06Z) - Let's Sample Step by Step: Adaptive-Consistency for Efficient Reasoning
and Coding with LLMs [60.58434523646137]
大規模言語モデル(LLM)からの出力の正確性を改善するための一般的なアプローチは、自己整合性である。
コスト効率のよいモデルに依存しない手法であるAdaptive-Consistencyを導入し,各質問のサンプル数を動的に調整する。
実験の結果,Adaptive-Consistencyはサンプル予算を最大7.9倍に削減し,平均精度は0.1%以下であった。
論文 参考訳(メタデータ) (2023-05-19T17:49:25Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。