論文の概要: Towards Zero-Shot and Few-Shot Table Question Answering using GPT-3
- arxiv url: http://arxiv.org/abs/2210.17284v1
- Date: Mon, 31 Oct 2022 13:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:19:20.650257
- Title: Towards Zero-Shot and Few-Shot Table Question Answering using GPT-3
- Title(参考訳): GPT-3を用いたゼロショットとFew-Shotテーブル質問応答に向けて
- Authors: Pragya Srivastava, Tanuja Ganu and Saikat Guha
- Abstract要約: GPT-3は、シリアライズされた配列プレオブアレイ表現からテーブル構造をゼロショットで学習することができる。
数ショットの静的Q&A例を含む単純なプロンプトエンジニアリングは精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 2.1325744957975568
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present very early results on using GPT-3 to perform question answering on
tabular data. We find that stock pre-trained GPT-3 is able to zero-shot learn
the table structure from a serialized JSON array-of-arrays representation, and
able to answer lookup queries and simple comparison questions in natural
language without any fine-tuning. We further find that simple prompt
engineering to include few-shot static Q&A examples significantly improves
accuracy. Lastly, we find that intermixing passage text improves accuracy even
further on heterogeneous data. We apply our approach on a novel dataset of
simple tables in newspaper infographics with promising results. Overall, we
find much cause for optimism in this basic approach.
- Abstract(参考訳): GPT-3を用いて表データの質問応答を行うのは非常に初期の結果を示す。
事前学習したストックGPT-3は、シリアライズされたJSON配列からテーブル構造をゼロショットで学習でき、自然言語のルックアップクエリや単純な比較質問に、微調整なしで答えることができる。
さらに、数ショットの静的Q&A例を含む単純なプロンプトエンジニアリングは精度を大幅に向上させる。
最後に,異種データに対する合成文の精度がさらに向上することを示す。
このアプローチを新聞インフォグラフィックの単純な表の新しいデータセットに適用し,有望な結果を得た。
全体として、私たちはこの基本的なアプローチで楽観主義の大きな原因を見つけます。
関連論文リスト
- Knowledge in Triples for LLMs: Enhancing Table QA Accuracy with Semantic Extraction [1.0968343822308813]
本稿では,表型データから直交三重項を抽出し,それを検索拡張生成(RAG)モデルに統合することにより,微調整GPT-3.5-turbo-0125モデルにより生成された応答の精度,コヒーレンス,コンテキスト的リッチ性を向上させる手法を提案する。
FeTaQAデータセットの既存のベースライン、特にSacre-BLEUとROUGEの指標に優れています。
論文 参考訳(メタデータ) (2024-09-21T16:46:15Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - Short Answer Grading Using One-shot Prompting and Text Similarity
Scoring Model [2.14986347364539]
分析スコアと全体スコアの両方を提供する自動短解階調モデルを開発した。
このモデルの精度と2次重み付きカッパは、ASAGデータセットのサブセットである0.67と0.71であった。
論文 参考訳(メタデータ) (2023-05-29T22:05:29Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Shall We Pretrain Autoregressive Language Models with Retrieval? A
Comprehensive Study [115.96080028033904]
本稿では,拡張性のある事前学習型検索拡張LM(RETRO)について,標準GPTと検索拡張GPTと比較した。
本研究は, 将来の基盤モデルとしての検索による自己回帰型LMの事前学習の方向性を明らかにするものである。
論文 参考訳(メタデータ) (2023-04-13T18:04:19Z) - OpenCQA: Open-ended Question Answering with Charts [6.7038829115674945]
我々はOpenCQAと呼ばれる新しいタスクを導入し、そこではグラフに関するオープンな質問にテキストで答えることが目的である。
3つの実践的な設定の下で,一連のベースラインを実装し,評価する。
結果から,トップパフォーマンスモデルは通常,流動的かつコヒーレントなテキストを生成することが示された。
論文 参考訳(メタデータ) (2022-10-12T23:37:30Z) - Dynamic Prompt Learning via Policy Gradient for Semi-structured
Mathematical Reasoning [150.17907456113537]
数学的な推論を必要とする38,431のグレードレベルの問題を含む新しいデータセットであるTabular Math Word Problems (TabMWP)を提案する。
我々は,GPT-3モデルを含む,TabMWP上での事前学習モデルの評価を行った。
本稿では、ポリシー勾配を利用して、少量のトレーニングデータからコンテキスト内サンプルを選択する新しいアプローチ、PromptPGを提案する。
論文 参考訳(メタデータ) (2022-09-29T08:01:04Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Language Models are Few-Shot Learners [61.36677350504291]
言語モデルのスケールアップにより、タスクに依存しない、少数ショットのパフォーマンスが大幅に向上することを示す。
我々は、1750億のパラメータを持つ自動回帰言語モデルであるGPT-3を訓練し、その性能を数ショットでテストする。
GPT-3は、翻訳、質問応答、クローズタスクを含む多くのNLPデータセットで高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-05-28T17:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。