論文の概要: Generation of complex database queries and API calls from natural
language utterances
- arxiv url: http://arxiv.org/abs/2012.08146v1
- Date: Tue, 15 Dec 2020 08:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 11:17:59.455153
- Title: Generation of complex database queries and API calls from natural
language utterances
- Title(参考訳): 自然言語発話からの複雑なデータベースクエリとapi呼び出しの生成
- Authors: Amol Kelkar, Nachiketa Rajpurohit, Utkarsh Mittal and Peter Relan
- Abstract要約: 本稿では,クエリ生成問題を意図分類とスロット充填問題に変換する手法を提案する。
トレーニングデータセットに類似した質問に対しては、高い精度で複雑なクエリを生成する。
その他の質問では、テンプレートベースのアプローチやクエリ要素を予測してクエリを構築することができ、シーケンス・ツー・シーケンスモデルよりも高い精度で実行することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating queries corresponding to natural language questions is a long
standing problem. Traditional methods lack language flexibility, while newer
sequence-to-sequence models require large amount of data. Schema-agnostic
sequence-to-sequence models can be fine-tuned for a specific schema using a
small dataset but these models have relatively low accuracy. We present a
method that transforms the query generation problem into an intent
classification and slot filling problem. This method can work using small
datasets. For questions similar to the ones in the training dataset, it
produces complex queries with high accuracy. For other questions, it can use a
template-based approach or predict query pieces to construct the queries, still
at a higher accuracy than sequence-to-sequence models. On a real-world dataset,
a schema fine-tuned state-of-the-art generative model had 60\% exact match
accuracy for the query generation task, while our method resulted in 92\% exact
match accuracy.
- Abstract(参考訳): 自然言語質問に対応するクエリの生成は、長年にわたる問題である。
従来の方法は言語の柔軟性を欠いているが、新しいシーケンスからシーケンスへのモデルは大量のデータを必要とする。
スキーマに依存しないシーケンスからシーケンスへのモデルは、小さなデータセットを使用して特定のスキーマ用に微調整することができるが、これらのモデルは相対的に精度が低い。
本稿では,クエリ生成問題を意図分類とスロット充填問題に変換する手法を提案する。
この方法は小さなデータセットを使って動作する。
トレーニングデータセットに類似した質問に対しては、高い精度で複雑なクエリを生成する。
その他の質問では、テンプレートベースのアプローチやクエリ要素を予測してクエリを構築することができ、シーケンス・ツー・シーケンスモデルよりも高い精度で実行することができる。
実世界のデータセットでは,スキーマの微調整による生成モデルがクエリ生成タスクに対して60倍の精度で一致し,提案手法は92倍の精度で一致した。
関連論文リスト
- Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - The Death of Schema Linking? Text-to-SQL in the Age of Well-Reasoned Language Models [0.9149661171430259]
次世代の大規模言語モデル(LLM)を使用する場合のスキーマリンクを再検討する。
より新しいモデルでは,無関係なモデルが多数存在する場合でも,生成時に関連するスキーマ要素を利用することが可能であることが実証的に判明した。
文脈情報をフィルタリングする代わりに、拡張、選択、修正などのテクニックを強調し、テキストからBIRDパイプラインの精度を向上させるためにそれらを採用する。
論文 参考訳(メタデータ) (2024-08-14T17:59:04Z) - It's All Relative! -- A Synthetic Query Generation Approach for
Improving Zero-Shot Relevance Prediction [19.881193965130173]
大規模言語モデル(LLM)は、最大8つのデモをプロンプトすることで、合成クエリ-ドキュメントペアを生成する能力を示す。
異なるラベルに対するクエリを同時に生成することで,この負担を軽減することを提案する。
論文 参考訳(メタデータ) (2023-11-14T06:16:49Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z) - TabLLM: Few-shot Classification of Tabular Data with Large Language
Models [66.03023402174138]
大規模言語モデルのゼロショットおよび少数ショット分類への応用について検討する。
テンプレートやテーブル・ツー・テキストモデル,大規模言語モデルなど,いくつかのシリアライズ手法を評価する。
このアプローチは、勾配木のような強力な伝統的なベースラインとも競合する。
論文 参考訳(メタデータ) (2022-10-19T17:08:13Z) - Conditional set generation using Seq2seq models [52.516563721766445]
条件セット生成は、トークンの入力シーケンスからセットへのマッピングを学習する。
シーケンス・ツー・シーケンス(Seq2seq)モデルは、モデルセット生成において一般的な選択である。
本稿では,ラベル順序空間上の情報的順序を効果的に抽出する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-25T04:17:50Z) - MK-SQuIT: Synthesizing Questions using Iterative Template-filling [0.0]
我々は、できるだけ少ない人間の入力で、質問/問い合わせペアを合成的に生成するフレームワークを作成します。
これらのデータセットは、自然言語の質問をクエリに変換するために、機械翻訳システムのトレーニングに使用することができる。
論文 参考訳(メタデータ) (2020-11-04T22:33:05Z) - Exploring Sequence-to-Sequence Models for SPARQL Pattern Composition [0.5639451539396457]
構造化され、構造化されていないデータとして、インターネットに爆発的な情報が追加され、DBpediaやWikidataのような知識ベースが供給される。
質問回答システムの目的は、正規のクエリを書くことなく、自然言語でそのようなデータにアクセスできるようにすることである。
我々は、長い発話を複雑なSPARQLクエリに変換するための、シーケンス・ツー・シーケンス・モデルが実現可能で有望な選択肢であることを示す。
論文 参考訳(メタデータ) (2020-10-21T11:12:01Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Syntactic Question Abstraction and Retrieval for Data-Scarce Semantic
Parsing [22.490892257736043]
本稿では,自然言語を論理形式に変換するニューラルセマンティクスを構築するために,SQAR(Syntactic Question Abstraction and Retrieval)を提案する。
SQARは、モデルを再トレーニングすることなく、新しい例を追加することで、目に見えない論理パターンを生成する。
単純なパターン分類アプローチとは対照的に、SQARはモデルを再訓練することなく、目に見えない論理パターンを生成することができる。
論文 参考訳(メタデータ) (2020-05-01T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。