論文の概要: TableQuery: Querying tabular data with natural language
- arxiv url: http://arxiv.org/abs/2202.00454v1
- Date: Thu, 27 Jan 2022 17:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-06 08:30:55.722968
- Title: TableQuery: Querying tabular data with natural language
- Title(参考訳): TableQuery: 自然言語で表データのクエリ
- Authors: Abhijith Neil Abraham, Fariz Rahman, Damanpreet Kaur
- Abstract要約: TableQueryでは、質問応答のための事前訓練されたディープラーニングモデルを使用して、自然言語クエリを構造化クエリに変換する。
質問応答のために事前訓練されたディープラーニングモデルは、HuggingFace Model Hubなどのプラットフォームで簡単に利用できる。
TableQueryは、再トレーニングを必要としない。より優れたパフォーマンスで質問応答のための新しくトレーニングされたモデルが利用可能になった場合、TableQueryの既存のモデルを置き換えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents TableQuery, a novel tool for querying tabular data using
deep learning models pre-trained to answer questions on free text. Existing
deep learning methods for question answering on tabular data have various
limitations, such as having to feed the entire table as input into a neural
network model, making them unsuitable for most real-world applications. Since
real-world data might contain millions of rows, it may not entirely fit into
the memory. Moreover, data could be stored in live databases, which are updated
in real-time, and it is impractical to serialize an entire database to a neural
network-friendly format each time it is updated. In TableQuery, we use deep
learning models pre-trained for question answering on free text to convert
natural language queries to structured queries, which can be run against a
database or a spreadsheet. This method eliminates the need for fitting the
entire data into memory as well as serializing databases. Furthermore, deep
learning models pre-trained for question answering on free text are readily
available on platforms such as HuggingFace Model Hub (7). TableQuery does not
require re-training; when a newly trained model for question answering with
better performance is available, it can replace the existing model in
TableQuery.
- Abstract(参考訳): 本稿では,自由テキストで質問に答えるために事前学習したディープラーニングモデルを用いて,表形式のデータをクエリする新しいツールであるTableQueryを提案する。
テーブルデータに対する質問応答のための既存のディープラーニング手法には、ニューラルネットワークモデルへの入力としてテーブル全体を入力しなければならないなど、さまざまな制限がある。
実世界のデータは数百万行を含む可能性があるため、メモリに完全に適合しないかもしれない。
さらに、データはリアルタイムで更新されるライブデータベースに格納され、更新されるたびにデータベース全体をニューラルネットワークフレンドリなフォーマットにシリアライズするのは現実的ではない。
TableQueryでは、質問応答のための事前訓練されたディープラーニングモデルを使用して、自然言語クエリを構造化クエリに変換し、データベースやスプレッドシートに対して実行できる。
この方法では、データベースのシリアライズだけでなく、データ全体をメモリに埋め込む必要がなくなる。
さらに、無料テキストでの質問応答のために事前訓練されたディープラーニングモデルは、HuggingFace Model Hub (7)のようなプラットフォームで簡単に利用できる。
より優れたパフォーマンスで質問応答を新たにトレーニングされたモデルが利用可能になった場合、TableQueryの既存のモデルを置き換えることができる。
関連論文リスト
- Table Question Answering for Low-resourced Indic Languages [71.57359949962678]
TableQAは構造化された情報のテーブル上で質問に答え、個々のセルやテーブルを出力として返すタスクである。
予算が限られている低リソース言語を対象とした,完全自動大規模テーブルQAデータ生成プロセスを提案する。
表QAデータセットやモデルを持たない2つのIndic言語であるBengaliとHindiにデータ生成手法を組み込む。
論文 参考訳(メタデータ) (2024-10-04T16:26:12Z) - Retrieval-Based Transformer for Table Augmentation [14.460363647772745]
我々は、自動データラングリングに対する新しいアプローチを導入する。
本研究の目的は,行数や列数,データ計算などのテーブル拡張タスクに対処することである。
我々のモデルは、教師付き統計手法と最先端のトランスフォーマーベースモデルの両方より一貫して、実質的に優れています。
論文 参考訳(メタデータ) (2023-06-20T18:51:21Z) - Towards Table-to-Text Generation with Pretrained Language Model: A Table
Structure Understanding and Text Deliberating Approach [60.03002572791552]
本稿では,テーブル構造理解とテキスト検討手法,すなわちTASDを提案する。
具体的には,表構造を考慮したテキスト生成モデルを実現するために,三層多層アテンションネットワークを考案する。
われわれのアプローチは、様々な種類のテーブルに対して忠実で流動的な記述テキストを生成することができる。
論文 参考訳(メタデータ) (2023-01-05T14:03:26Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - Korean-Specific Dataset for Table Question Answering [3.7056358801102682]
日本語で書かれた質問応答のための韓国語固有のデータセットを構築した。
韓国のテーブル質問回答コーパスは、クラウドソース労働者による70万対の質問と回答で構成されている。
データセットをGitHubリポジトリ経由で公開しています。
論文 参考訳(メタデータ) (2022-01-17T05:47:44Z) - Leveraging Table Content for Zero-shot Text-to-SQL with Meta-Learning [25.69875174742935]
単一テーブルのテキスト・トゥ・ワンは、自然言語の質問を単一のテーブルに従ってクエリに変換することを目的としている。
我々は、追加のマニュアルアノテーションに依存しないゼロショットテキスト・ツー・ワンタスクに対して、新しいアプローチを提案する。
パブリックなオープンドメインのテキスト・ツー・ワン・データセットとドメイン固有のデータセットEについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-12T01:01:28Z) - Data Agnostic RoBERTa-based Natural Language to SQL Query Generation [0.0]
NL2タスクは、自然言語による質問から有効なクエリへの変換問題を解決するために、ディープラーニングアプローチを見つけることを目的としている。
データプライバシに関するアプローチを,その中核として紹介しています。
成果は得られていないが、モデルのトレーニングからテーブルの必要性を排除した。
論文 参考訳(メタデータ) (2020-10-11T13:18:46Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - TaBERT: Pretraining for Joint Understanding of Textual and Tabular Data [113.29476656550342]
本研究では,NL文と表の表現を共同で学習する事前学習型LMであるTaBERTを提案する。
TaBERTは、600万のテーブルとその英語コンテキストからなる大規模なコーパスで訓練されている。
モデルの実装はhttp://fburl.com/TaBERT.comで公開される。
論文 参考訳(メタデータ) (2020-05-17T17:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。