論文の概要: Did You Ask a Good Question? A Cross-Domain Question Intention
Classification Benchmark for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2010.12634v1
- Date: Fri, 23 Oct 2020 19:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:51:57.939512
- Title: Did You Ask a Good Question? A Cross-Domain Question Intention
Classification Benchmark for Text-to-SQL
- Title(参考訳): あなたは良い質問をしたのか?
テキストからSQLへの質問意図分類ベンチマーク
- Authors: Yusen Zhang, Xiangyu Dong, Shuaichen Chang, Tao Yu, Peng Shi and Rui
Zhang
- Abstract要約: Triageは、最初のクロスドメインテキストツークエスト分類ベンチマークである。
4種類の解答不可能な質問と解答可能な質問を区別するモデルが必要である。
RoBERTaモデルは、テストセット上で60%のF1スコアを達成する。
- 参考スコア(独自算出の注目度): 32.946103197082124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural models have achieved significant results on the text-to-SQL task, in
which most current work assumes all the input questions are legal and generates
a SQL query for any input. However, in the real scenario, users can input any
text that may not be able to be answered by a SQL query. In this work, we
propose TriageSQL, the first cross-domain text-to-SQL question intention
classification benchmark that requires models to distinguish four types of
unanswerable questions from answerable questions. The baseline RoBERTa model
achieves a 60% F1 score on the test set, demonstrating the need for further
improvement on this task. Our dataset is available at
https://github.com/chatc/TriageSQL.
- Abstract(参考訳): ニューラルモデルは、すべての入力質問が合法であると仮定し、任意の入力に対してSQLクエリを生成する、テキストからSQLへのタスクにおいて重要な結果を得た。
しかし、実際のシナリオでは、ユーザーはsqlクエリで応答できない可能性のあるテキストを入力できる。
本研究では,4種類の疑問を解答可能な質問から区別するモデルを必要とする,最初のクロスドメインテキストからSQLへの質問意図分類ベンチマークであるTriageSQLを提案する。
RoBERTaモデルは、テストセットで60%のF1スコアを獲得し、このタスクをさらに改善する必要性を示している。
私たちのデータセットはhttps://github.com/chatc/TriageSQLで公開されています。
関連論文リスト
- PRACTIQ: A Practical Conversational Text-to-SQL dataset with Ambiguous and Unanswerable Queries [32.40808001281668]
実際のユーザ質問は、複数の解釈で曖昧である場合もあれば、関連するデータが不足しているため、解決不可能である場合もあります。
本研究では,実際の対話型テキスト・テキスト・データセットを構築する。
我々は,最初のユーザ質問,明確化を求めるアシスタント応答,ユーザの明確化,およびアシスタントの明確化の4つのターンで会話を生成する。
論文 参考訳(メタデータ) (2024-10-14T20:36:35Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Know What I don't Know: Handling Ambiguous and Unanswerable Questions
for Text-to-SQL [36.5089235153207]
既存のtext-to-Yourself は任意のユーザ質問に対して "plausible" クエリを生成する。
本稿では,不明瞭かつ解決不可能な例を自動的に生成する,シンプルで効果的な生成手法を提案する。
実験結果から,実例と生成例の両方において,本モデルが最も優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2022-12-17T15:32:00Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z) - Photon: A Robust Cross-Domain Text-to-SQL System [189.1405317853752]
私たちは、マッピングを即座に決定できない自然言語入力にフラグを付けることができる、堅牢でモジュール化されたクロスドメインなNLIDBPhotonを紹介します。
提案手法は,翻訳不能なユーザ入力に対して,テキストからネイティブシステムへのロバストさを効果的に向上させる。
論文 参考訳(メタデータ) (2020-07-30T07:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。