論文の概要: IESR:Efficient MCTS-Based Modular Reasoning for Text-to-SQL with Large Language Models
- arxiv url: http://arxiv.org/abs/2602.05385v1
- Date: Thu, 05 Feb 2026 07:10:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.803746
- Title: IESR:Efficient MCTS-Based Modular Reasoning for Text-to-SQL with Large Language Models
- Title(参考訳): IESR:大規模言語モデルを用いたテキストからSQLへの効率的なMCTSに基づくモジュール推論
- Authors: Tao Liu, Jiafan Lu, Bohan Yu, Pengcheng Wu, Liu Haixin, Guoyu Xu, Li Xiangheng, Lixiao Li, Jiaming Hou, Zhao Shijun, Xinglin Lyu, Kunli Zhang, Yuxiang Jia, Hongyin Zan,
- Abstract要約: 軽量な大規模言語モデルのためのフレームワークIESR(Information Enhanced Structured Reasoning)を提案する。
複雑な推論ベンチマーク LogicCat と Archer データセット上で,IESR が最先端のパフォーマンスを達成することを示す。
解析の結果,現在のコーダモデルは,物理知識,数理計算,常識推論において顕著なバイアスと欠陥を呈していることがわかった。
- 参考スコア(独自算出の注目度): 10.758655501692793
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-to-SQL is a key natural language processing task that maps natural language questions to SQL queries, enabling intuitive interaction with web-based databases. Although current methods perform well on benchmarks like BIRD and Spider, they struggle with complex reasoning, domain knowledge, and hypothetical queries, and remain costly in enterprise deployment. To address these issues, we propose a framework named IESR(Information Enhanced Structured Reasoning) for lightweight large language models: (i) leverages LLMs for key information understanding and schema linking, and decoupling mathematical computation and SQL generation, (ii) integrates a multi-path reasoning mechanism based on Monte Carlo Tree Search (MCTS) with majority voting, and (iii) introduces a trajectory consistency verification module with a discriminator model to ensure accuracy and consistency. Experimental results demonstrate that IESR achieves state-of-the-art performance on the complex reasoning benchmark LogicCat (24.28 EX) and the Archer dataset (37.28 EX) using only compact lightweight models without fine-tuning. Furthermore, our analysis reveals that current coder models exhibit notable biases and deficiencies in physical knowledge, mathematical computation, and common-sense reasoning, highlighting important directions for future research. We released code at https://github.com/Ffunkytao/IESR-SLM.
- Abstract(参考訳): Text-to-SQLは、自然言語の質問をSQLクエリにマッピングし、Webベースのデータベースとの直感的な対話を可能にする、重要な自然言語処理タスクである。
現在の手法はBIRDやSpiderのようなベンチマークでうまく機能するが、複雑な推論やドメイン知識、仮説的なクエリに悩まされ、エンタープライズデプロイメントにはコストがかかる。
これらの問題に対処するため、我々は軽量な大規模言語モデルのためのIESR(Information Enhanced Structured Reasoning)というフレームワークを提案する。
i) LLMをキー情報理解とスキーマリンクに利用し、数学的計算とSQL生成を分離する。
(II)モンテカルロ木探索(MCTS)に基づく多経路推論機構を多数決と統合する。
(iii) 精度と整合性を確保するために、識別器モデルを備えた軌道整合性検証モジュールを導入する。
実験の結果,IESR は複雑な推論ベンチマーク LogicCat (24.28 EX) と Archer データセット (37.28 EX) に対して,微調整なしでコンパクトな軽量モデルのみを用いて,最先端のパフォーマンスを実現することが示された。
さらに,現在のコーダモデルでは,物理知識,数理計算,常識推論に顕著なバイアスや欠陥がみられ,今後の研究における重要な方向性が示されている。
私たちはhttps://github.com/Ffunkytao/IESR-SLMでコードを公開しました。
関連論文リスト
- MCTS-SQL: Light-Weight LLMs can Master the Text-to-SQL through Monte Carlo Tree Search [1.166711394125328]
Text-to-OTAは、NLP領域における基本的な課題である。
モンテカルロ木探索を用いた新しいフレームワークMCTS-OTAを提案する。
本稿では,反復中に事前情報を格納するトークンレベルのプレフィックスキャッシュ機構を提案する。
論文 参考訳(メタデータ) (2025-01-28T00:52:23Z) - RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - Lucy: Think and Reason to Solve Text-to-SQL [12.52968634440807]
大規模言語モデル(LLM)は、自然言語でデータベースをクエリするユーザを支援するために大きな進歩を遂げた。
LLMは、多くの標準ベンチマークで最先端の結果を提供するが、大規模エンタープライズデータベースに適用した場合、その性能は著しく低下する。
本稿では,質問理解におけるLLMのパワーと,複雑なデータベース制約を扱う自動推論手法を組み合わせた新しい解を提案する。
論文 参考訳(メタデータ) (2024-07-06T18:56:42Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Improving Text-to-SQL Semantic Parsing with Fine-grained Query
Understanding [84.04706075621013]
トークンレベルのきめ細かいクエリ理解に基づく汎用的モジュール型ニューラルネットワーク解析フレームワークを提案する。
我々のフレームワークは、名前付きエンティティ認識(NER)、ニューラルエンティティリンカ(NEL)、ニューラルエンティティリンカ(NSP)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2022-09-28T21:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。