論文の概要: Continual Learning of Domain Knowledge from Human Feedback in Text-to-SQL
- arxiv url: http://arxiv.org/abs/2511.10674v1
- Date: Mon, 10 Nov 2025 05:29:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.255852
- Title: Continual Learning of Domain Knowledge from Human Feedback in Text-to-SQL
- Title(参考訳): テキストからSQLへのフィードバックからのドメイン知識の継続的な学習
- Authors: Thomas Cook, Kelly Patel, Sivapriya Vellaichamy, Saba Rahimi, Zhen Zeng, Sumitra Ganesh,
- Abstract要約: 本研究では,テキスト・ツー・アウェア・スキーマや蒸留スキーマにおいて,人間のフィードバックから連続的な学習を行うフレームワークを提案する。
本稿では, メモリ拡張エージェント, 特に手続きエージェントが, ループ内フィードバックを利用して, 大幅な精度向上と誤差低減を実現していることを示す。
- 参考スコア(独自算出の注目度): 9.964158093998277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) can generate SQL queries from natural language questions but struggle with database-specific schemas and tacit domain knowledge. We introduce a framework for continual learning from human feedback in text-to-SQL, where a learning agent receives natural language feedback to refine queries and distills the revealed knowledge for reuse on future tasks. This distilled knowledge is stored in a structured memory, enabling the agent to improve execution accuracy over time. We design and evaluate multiple variations of a learning agent architecture that vary in how they capture and retrieve past experiences. Experiments on the BIRD benchmark Dev set show that memory-augmented agents, particularly the Procedural Agent, achieve significant accuracy gains and error reduction by leveraging human-in-the-loop feedback. Our results highlight the importance of transforming tacit human expertise into reusable knowledge, paving the way for more adaptive, domain-aware text-to-SQL systems that continually learn from a human-in-the-loop.
- Abstract(参考訳): 大きな言語モデル(LLM)は、自然言語の質問からSQLクエリを生成するが、データベース固有のスキーマや暗黙のドメイン知識に苦労する。
テキストからSQLへの人間のフィードバックから連続的な学習のフレームワークを導入し、学習エージェントが自然言語のフィードバックを受け取り、クエリを洗練させ、将来のタスクで再利用するための知識を抽出する。
この蒸留知識は構造化メモリに格納され、エージェントは時間とともに実行精度を向上させることができる。
我々は、過去の経験を捉え、取り出す方法が異なる学習エージェントアーキテクチャの複数のバリエーションを設計し、評価する。
BIRDベンチマークのDevセットの実験では、メモリ拡張エージェント(特にProcedural Agent)は、ヒューマン・イン・ザ・ループフィードバックを活用することで、大幅な精度向上とエラー低減を実現している。
我々の結果は、暗黙の人間の専門知識を再利用可能な知識に転換することの重要性を強調し、より適応的でドメイン対応のテキストからSQLシステムへの道を開いた。
関連論文リスト
- Prompt Tuning for Natural Language to SQL with Embedding Fine-Tuning and RAG [1.988259704465628]
本稿では,エラーの型を診断し,原因を同定するエラー訂正機構を統合する新しいフレームワークを提案する。
既存のベースラインよりも12%の精度向上を実現しています。
論文 参考訳(メタデータ) (2025-11-11T13:41:13Z) - ORANGE: An Online Reflection ANd GEneration framework with Domain Knowledge for Text-to-SQL [8.241433772695018]
大規模言語モデル (LLM) は、自然言語 tosql の翻訳において顕著な進歩を示している。
データベースの一般的な知識とドメイン固有のセマンティクスの間には、重要なセマンティクスギャップが持続する。
翻訳ログからクエリを解析することでデータベース固有の知識ベースを構築するオンラインの自己進化フレームワークであるOrangeを紹介する。
論文 参考訳(メタデータ) (2025-11-02T15:57:18Z) - Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization [56.674356045200696]
本稿では,複雑なメモシステムや事前の高品質な実演データを必要としない,複数のタスクに対する知識とスキルを取り入れたAIエージェントの訓練手法を提案する。
このアプローチでは,エージェントが新たな経験を収集し,ヒントの形で人間から補正フィードバックを受け取り,このフィードバックを重みに組み込む,反復的なプロセスを採用している。
Llama-3をベースとしたエージェントに実装することで,数ラウンドのフィードバックの後,高度なモデルGPT-4oとDeepSeek-V3をタスクセットで性能向上させる手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-02-03T17:45:46Z) - In-Memory Learning: A Declarative Learning Framework for Large Language
Models [56.62616975119192]
本研究では,人間ラベルデータに頼らずにエージェントが環境に整合できる新しい学習フレームワークを提案する。
このプロセス全体がメモリコンポーネント内で変換され、自然言語で実装される。
フレームワークの有効性を実証し、この問題に対する洞察を提供する。
論文 参考訳(メタデータ) (2024-03-05T08:25:11Z) - Towards A Unified Agent with Foundation Models [18.558328028366816]
強化学習(RL)エージェントにそのような能力を組み込んで活用する方法を検討する。
我々は、言語を中核的推論ツールとして使用するフレームワークを設計し、エージェントが一連の基本的なRL課題にどのように取り組むことができるかを探る。
探索効率とオフラインデータセットからのデータの再利用能力において,ベースラインよりも大幅にパフォーマンスが向上したことを示す。
論文 参考訳(メタデータ) (2023-07-18T22:37:30Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Towards Knowledge-Intensive Text-to-SQL Semantic Parsing with Formulaic
Knowledge [54.85168428642474]
我々は、さまざまなドメインをカバーするドメイン固有の質問からなる新しい中国のベンチマークKnowを構築した。
次に、付加的なデータ例に注釈を付けるのではなく、公式知識を提示することでこの問題に対処する。
より具体的には、ドメイン知識基盤として定式的知識バンクを構築し、解析中にこの定式的知識を活用するためのフレームワーク(ReGrouP)を提案する。
論文 参考訳(メタデータ) (2023-01-03T12:37:47Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。