論文の概要: ChatQA: Building GPT-4 Level Conversational QA Models
- arxiv url: http://arxiv.org/abs/2401.10225v2
- Date: Tue, 23 Jan 2024 05:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 18:19:25.307930
- Title: ChatQA: Building GPT-4 Level Conversational QA Models
- Title(参考訳): ChatQA: GPT-4レベルの会話型QAモデルの構築
- Authors: Zihan Liu, Wei Ping, Rajarshi Roy, Peng Xu, Chankyu Lee, Mohammad
Shoeybi, Bryan Catanzaro
- Abstract要約: GPT-4レベルの精度が得られる会話型質問応答(QA)モデルであるChatQAを紹介する。
マルチターンQAデータセットに高密度検索器を微調整し、最先端のクエリ書き換えモデルに匹敵する結果を与える。
- 参考スコア(独自算出の注目度): 45.52059300886066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce ChatQA, a family of conversational question
answering (QA) models that obtain GPT-4 level accuracies. Specifically, we
propose a two-stage instruction tuning method that can significantly improve
the zero-shot conversational QA results from large language models (LLMs). To
handle retrieval-augmented generation in conversational QA, we fine-tune a
dense retriever on a multi-turn QA dataset, which provides comparable results
to using the state-of-the-art query rewriting model while largely reducing
deployment cost. Notably, our ChatQA-70B can outperform GPT-4 in terms of
average score on 10 conversational QA datasets (54.14 vs. 53.90), without
relying on any synthetic data from OpenAI GPT models.
- Abstract(参考訳): 本稿では,対話型質問応答(QA)モデルであるChatQAを紹介し,GPT-4レベルの精度を得る。
具体的には,大規模言語モデル(LLM)からゼロショット対話型QA結果を大幅に改善する2段階の命令チューニング手法を提案する。
対話型QAにおける検索強化生成を処理するため,マルチターンQAデータセット上に高密度検索器を微調整し,最新のクエリ書き換えモデルに匹敵する結果を得るとともに,デプロイメントコストを大幅に削減する。
特に、私たちのChatQA-70Bは、OpenAI GPTモデルの合成データに頼ることなく、10の会話型QAデータセット(54.14 vs. 53.90)の平均スコアでGPT-4を上回ります。
関連論文リスト
- Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation [54.136509061542775]
マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
HotpotQAデータセットの結果は、QA4QGがすべての最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2022-02-14T08:16:47Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Fluent Response Generation for Conversational Question Answering [15.826109118064716]
本稿では,SEQ2SEQ NLGアプローチで応答をシチュレートする手法を提案する。
我々は、エンドツーエンドシステムのトレーニングデータを生成するためにデータ拡張を使用します。
論文 参考訳(メタデータ) (2020-05-21T04:57:01Z) - UnifiedQA: Crossing Format Boundaries With a Single QA System [84.63376743920003]
私たちが教えようとしている推論能力は形式によって支配されないので、このような境界は人工的であり、おそらく不要である、と我々は主張する。
トレーニング済みの1つのQAモデルUnifiedQAを構築しました。
論文 参考訳(メタデータ) (2020-05-02T04:42:14Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。