論文の概要: Correcting Semantic Parses with Natural Language through Dynamic Schema
Encoding
- arxiv url: http://arxiv.org/abs/2305.19974v1
- Date: Wed, 31 May 2023 16:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 15:33:04.228086
- Title: Correcting Semantic Parses with Natural Language through Dynamic Schema
Encoding
- Title(参考訳): 動的スキーマ符号化によるセマンティックParseの自然言語による修正
- Authors: Parker Glenn, Parag Pravin Dakle, Preethi Raghavan
- Abstract要約: 自動回帰デコーダの精度は自然言語による1ターンの補正で最大26%向上できることを示す。
Tbaseモデルは、ゼロショットのクロスパーザ設定でT5大モデルのエラーを修正することができる。
- 参考スコア(独自算出の注目度): 0.06445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In addressing the task of converting natural language to SQL queries, there
are several semantic and syntactic challenges. It becomes increasingly
important to understand and remedy the points of failure as the performance of
semantic parsing systems improve. We explore semantic parse correction with
natural language feedback, proposing a new solution built on the success of
autoregressive decoders in text-to-SQL tasks. By separating the semantic and
syntactic difficulties of the task, we show that the accuracy of text-to-SQL
parsers can be boosted by up to 26% with only one turn of correction with
natural language. Additionally, we show that a T5-base model is capable of
correcting the errors of a T5-large model in a zero-shot, cross-parser setting.
- Abstract(参考訳): 自然言語をSQLクエリに変換するタスクには、セマンティックおよび構文上の課題がいくつかある。
セマンティック解析システムの性能が向上するにつれて、障害点を理解して修正することがますます重要になる。
自然言語フィードバックによる意味的パース補正を探求し,テキストからsqlへのタスクにおける自己回帰デコーダの成功に基づく新しいソリューションを提案する。
タスクの意味論と構文論の難しさを分離することにより,自然言語による訂正を1回だけ行えば,テキストからsqlへのパーサの精度を最大26%向上できることを示した。
さらに,t5-baseモデルでは,t5-largeモデルの誤差をゼロショットのクロスパーザ設定で訂正できることを示す。
関連論文リスト
- MrT5: Dynamic Token Merging for Efficient Byte-level Language Models [50.46453950887946]
この作業はより効率的なBYT5の派生であるMergeT5(MergeT5)を導入している。
MrT5はトークン削除機構をエンコーダに統合し、入力シーケンスの長さを動的に短縮する。
英語のテキストでトレーニングすると、MrT5はその削除機能を複数の言語でゼロショットで転送する機能を示している。
論文 参考訳(メタデータ) (2024-10-28T06:14:12Z) - T5-SR: A Unified Seq-to-Seq Decoding Strategy for Semantic Parsing [8.363108209152111]
seq2seqセマンティクスは、スキーマ情報予測の質の低下など、より多くの課題に直面します。
本稿では、新たな中間表現 S とスコア再推定器を用いた復位法を含む、SR と呼ばれるSeq2seq 指向のデコード戦略を提案する。
論文 参考訳(メタデータ) (2023-06-14T08:57:13Z) - Towards preserving word order importance through Forced Invalidation [80.33036864442182]
事前学習された言語モデルは単語の順序に敏感であることを示す。
我々は,単語順序の重要性を維持するために強制的無効化を提案する。
実験の結果,強制的無効化は単語順に対するモデルの感度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-04-11T13:42:10Z) - Conversational Text-to-SQL: An Odyssey into State-of-the-Art and
Challenges Ahead [6.966624873109535]
State-of-the-art (SOTA) システムは、T5ファミリーのような大規模で訓練済み、微調整された言語モデルを使用する。
トレーニング中に個別のプロンプトを持つコヒーレントなタスクに対するマルチタスク(MT)により、特殊なテキストから3つのモデルよりも改善する。
我々は、領域と構成の一般化に起因する誤りを分解する研究を行う。
論文 参考訳(メタデータ) (2023-02-21T23:15:33Z) - Graphix-T5: Mixing Pre-Trained Transformers with Graph-Aware Layers for
Text-to-SQL Parsing [56.232873134174056]
テキストからテキストへのパースにおける大きな課題の1つはドメインの一般化である。
そこで本研究では,テキスト・トゥ・テキスト・パーシングのための特殊なコンポーネントを備えた事前学習されたテキスト・ツー・テキスト・トランスフォーマー・モデルをさらに強化する方法について検討する。
この目的のために,レイヤを持つグラフ認識モデルによって拡張された新しいアーキテクチャ GRAPHIX-T5 を提案する。
論文 参考訳(メタデータ) (2023-01-18T13:29:05Z) - MIGA: A Unified Multi-task Generation Framework for Conversational
Text-to-SQL [48.34333725045152]
ほとんどの最先端の対話型テキスト生成手法は、T5のような事前訓練された言語モデル(PLM)と互換性がない。
PLMの対話型テキスト処理能力を活用した2段階統合MultI-task frAmeme(MIGA)を提案する。
論文 参考訳(メタデータ) (2022-12-19T07:14:32Z) - SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers [61.48159785138462]
本稿では,ニューラルネットワークに基づくアプローチ(SUN)における本質的な不確かさを探索することにより,テキストから依存への変換性能を向上させることを目的とする。
5つのベンチマークデータセットの大規模な実験により、我々の手法は競合より大幅に優れ、新しい最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-09-14T06:27:51Z) - S$^2$SQL: Injecting Syntax to Question-Schema Interaction Graph Encoder
for Text-to-SQL Parsers [66.78665327694625]
テキスト-関係解析のための質問-エンコーダグラフに構文を注入するS$2$を提案する。
また、疎結合制約を用いて多様なエッジ埋め込みを誘導し、ネットワークの性能をさらに向上させる。
スパイダーとロバスト性設定の実験は、提案手法が事前学習モデルを使用する場合、既存のすべての手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-03-14T09:49:15Z) - NL-EDIT: Correcting semantic parse errors through natural language
interaction [28.333860779302306]
インタラクションコンテキストにおける自然言語フィードバックの解釈モデルであるNL-EDITを提案する。
NL-EDITは1回補正するだけで、既存のテキスト対アリーの精度を最大20%向上できることを示す。
論文 参考訳(メタデータ) (2021-03-26T15:45:46Z) - MT-Teql: Evaluating and Augmenting Consistency of Text-to-SQL Models
with Metamorphic Testing [11.566463879334862]
MT-Teqlは,テキスト保存モデルの一貫性を評価し,拡張するメタモルフィックテストベースのフレームワークである。
我々のフレームワークは、SOTAモデルから数千の予測エラーを公開し、既存のデータセットを桁違いに拡張し、標準精度を損なうことなく40%以上の矛盾エラーを除去する。
論文 参考訳(メタデータ) (2020-12-21T07:43:31Z) - Speak to your Parser: Interactive Text-to-SQL with Natural Language
Feedback [39.45695779589969]
本研究では,自然言語フィードバックを用いた意味的パース補正の課題について検討する。
本稿では,人間がさらにシステムと対話できる,よりインタラクティブなシナリオについて検討する。
論文 参考訳(メタデータ) (2020-05-05T23:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。