論文の概要: TableQAKit: A Comprehensive and Practical Toolkit for Table-based
Question Answering
- arxiv url: http://arxiv.org/abs/2310.15075v1
- Date: Mon, 23 Oct 2023 16:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 18:44:40.257021
- Title: TableQAKit: A Comprehensive and Practical Toolkit for Table-based
Question Answering
- Title(参考訳): tableqakit: テーブルベースの質問応答のための包括的かつ実用的なツールキット
- Authors: Fangyu Lei, Tongxu Luo, Pengqi Yang, Weihao Liu, Hanwen Liu, Jiahe
Lei, Yiming Huang, Yifan Wei, Shizhu He, Jun Zhao, Kang Liu
- Abstract要約: TableQAKitは、TableQA専用に設計された最初の総合ツールキットである。
TableQAKitは、ビジュアル操作を含むインタラクティブなインターフェースと、使いやすい包括的なデータを備えたオープンソースである。
- 参考スコア(独自算出の注目度): 23.412691101965414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Table-based question answering (TableQA) is an important task in natural
language processing, which requires comprehending tables and employing various
reasoning ways to answer the questions. This paper introduces TableQAKit, the
first comprehensive toolkit designed specifically for TableQA. The toolkit
designs a unified platform that includes plentiful TableQA datasets and
integrates popular methods of this task as well as large language models
(LLMs). Users can add their datasets and methods according to the friendly
interface. Also, pleasantly surprised using the modules in this toolkit
achieves new SOTA on some datasets. Finally, \tableqakit{} also provides an
LLM-based TableQA Benchmark for evaluating the role of LLMs in TableQA.
TableQAKit is open-source with an interactive interface that includes visual
operations, and comprehensive data for ease of use.
- Abstract(参考訳): 表に基づく質問応答 (TableQA) は自然言語処理において重要な課題であり, 表の理解と, 質問に対する様々な理性的方法の活用を必要とする。
本稿では、TableQA専用に設計された初の総合ツールキットであるTableQAKitを紹介する。
このツールキットは、豊富なTableQAデータセットを含む統一されたプラットフォームを設計し、このタスクの一般的なメソッドと大きな言語モデル(LLM)を統合する。
ユーザは、フレンドリーなインターフェースに従ってデータセットやメソッドを追加できる。
また、このツールキットのモジュールを使うことで、いくつかのデータセットで新しいSOTAを実現できます。
最後に、\tableqakit{} はテーブルQAにおける LLM の役割を評価するための LLM ベースの TableQA Benchmark も提供する。
TableQAKitは、ビジュアル操作を含むインタラクティブなインターフェースと、使いやすい包括的なデータを備えたオープンソースである。
関連論文リスト
- Large Language Model for Table Processing: A Survey [9.144614058716083]
大規模言語モデル (LLMs) は、学術や産業から大きな利益を得る。
テーブルは通常2次元で、大量のデータを格納するために構成され、データベースクエリやスプレッドシート計算、Webテーブルからのレポート生成といった日々のアクティビティに不可欠である。
この調査は、テーブル質問応答(Table QA)や事実検証といった従来の領域だけでなく、テーブル操作や高度なテーブルデータ分析といった、新たに強調された側面を含む、テーブルタスクの広範な概要を提供する。
論文 参考訳(メタデータ) (2024-02-04T00:47:53Z) - Augment before You Try: Knowledge-Enhanced Table Question Answering via
Table Expansion [57.53174887650989]
テーブル質問応答は、構造化されたデータを理解し、相互作用するモデルの能力を評価する一般的なタスクである。
既存の方法は表と外部の知識の両方をテキストに変換し、表の構造的な性質を無視する。
そこで本稿では,表に外部情報を統合するための簡易で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-01-28T03:37:11Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing
Semi-structured Data for Large Language Model Reasoning [58.11442663694328]
テーブルプロンプトを生成するための多用途前処理ツールボックスとして,TAP4LLMを提案する。
各モジュールにおいて、様々なシナリオで使用されるいくつかの一般的なメソッドを収集し、設計する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - RobuT: A Systematic Study of Table QA Robustness Against Human-Annotated
Adversarial Perturbations [13.900589860309488]
RobuTは既存のテーブルQAデータセット(WTQ、Wiki-Weak、SQA)の上に構築されている
以上の結果から,現状のテーブルQAモデルと大規模言語モデル(GPT-3など)の双方が,これらの対向集合に数発の学習フェールを持つことが明らかとなった。
本稿では,大規模言語モデルを用いて,学習力を高めるための逆例を生成することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-25T19:23:21Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - CLTR: An End-to-End, Transformer-Based System for Cell Level Table
Retrieval and Table Question Answering [8.389189333083513]
本稿では,最初のエンドツーエンドのテーブル質問応答(QA)システムを提案する。
自然言語の質問と大量のテーブルコーパスを入力として、最も関係のあるテーブルを検索し、質問に答えるために正しいテーブルセルを見つける。
76,242テーブル上の2,005の自然言語質問からなる2つの新しいオープンドメインベンチマークであるE2E_WTQとE2E_GNQを導入する。
論文 参考訳(メタデータ) (2021-06-08T15:22:10Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。