論文の概要: An Investigation Between Schema Linking and Text-to-SQL Performance
- arxiv url: http://arxiv.org/abs/2102.01847v1
- Date: Wed, 3 Feb 2021 02:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:33:36.077635
- Title: An Investigation Between Schema Linking and Text-to-SQL Performance
- Title(参考訳): スキーマリンクとテキスト間SQL性能の検討
- Authors: Yasufumi Taniguchi, Hiroki Nakayama, Kubo Takahiro, Jun Suzuki
- Abstract要約: 近年のニューラルアプローチは優れたパフォーマンスをもたらすが、将来の発展を妨げるのが難しいモデルである。
本研究の目的は,ニューラルネットワークの解釈に対するより良いアプローチを提供することである。
- 参考スコア(独自算出の注目度): 21.524953580249395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-SQL is a crucial task toward developing methods for understanding
natural language by computers. Recent neural approaches deliver excellent
performance; however, models that are difficult to interpret inhibit future
developments. Hence, this study aims to provide a better approach toward the
interpretation of neural models. We hypothesize that the internal behavior of
models at hand becomes much easier to analyze if we identify the detailed
performance of schema linking simultaneously as the additional information of
the text-to-SQL performance. We provide the ground-truth annotation of schema
linking information onto the Spider dataset. We demonstrate the usefulness of
the annotated data and how to analyze the current state-of-the-art neural
models.
- Abstract(参考訳): テキストからsqlへの変換は,自然言語をコンピュータで理解する上で重要な課題である。
最近のニューラルアプローチは優れたパフォーマンスを提供するが、解釈が難しいモデルは将来の発展を阻害する。
そこで本研究では,ニューラルネットワークの解釈に対するより良いアプローチを提案する。
我々は,スキーマリンクの詳細な性能をテキスト・トゥ・SQLパフォーマンスの付加情報として同時に特定した場合,手前のモデルの内部挙動を解析しやすくする仮説を立てた。
Spiderデータセットに情報をリンクするスキーマの基本的なアノテーションを提供します。
本稿では,アノテートデータの有用性と現状のニューラルモデルの解析方法について述べる。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Escaping the Forest: Sparse Interpretable Neural Networks for Tabular Data [0.0]
我々のモデルであるSparse TABular NET や sTAB-Net がツリーベースモデルよりも効果的であることを示す。
SHAPのようなポストホックメソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-23T10:50:07Z) - A Novel Technique for Query Plan Representation Based on Graph Neural Nets [2.184775414778289]
本研究では,異なる木モデルを用いたアグリゲードのコスト推定と計画選択性能への影響について検討する。
本稿では, Gated Recurrent Unit (GRU) によるGNNを用いたツリーモデルBiGGを提案する。
論文 参考訳(メタデータ) (2024-05-08T04:59:59Z) - Relational Graph Convolutional Networks for Sentiment Analysis [0.0]
Graph Convolutional Networks(NRGC)は、グラフ内のノードとして表されるデータポイント間の依存関係をキャプチャすることで、解釈性と柔軟性を提供する。
本稿では,Amazon および Digikala データセットの製品レビューにおいて,BERT や RoBERTa などの事前学習言語モデルと RGCN アーキテクチャを用いたアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-04-16T07:27:49Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers [61.48159785138462]
本稿では,ニューラルネットワークに基づくアプローチ(SUN)における本質的な不確かさを探索することにより,テキストから依存への変換性能を向上させることを目的とする。
5つのベンチマークデータセットの大規模な実験により、我々の手法は競合より大幅に優れ、新しい最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-09-14T06:27:51Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。