論文の概要: Parrot: Enhancing Multi-Turn Chat Models by Learning to Ask Questions
- arxiv url: http://arxiv.org/abs/2310.07301v1
- Date: Wed, 11 Oct 2023 08:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 23:33:21.063426
- Title: Parrot: Enhancing Multi-Turn Chat Models by Learning to Ask Questions
- Title(参考訳): parrot: 質問の学習によるマルチターンチャットモデルの拡張
- Authors: Yuchong Sun, Che Liu, Jinwen Huang, Ruihua Song, Fuzheng Zhang, Di
Zhang, Zhongyuan Wang, Kun Gai
- Abstract要約: オープンソースのチャットモデルと主要なチャットモデルの間のマルチターン会話には、顕著なラグがある。
高品質なインストラクションチューニングデータを自動的に生成するように設計された,スケーラブルなソリューションであるParrotを紹介する。
Parrot-Chatは他の13Bオープンソースモデルに対して、命令追従ベンチマークの範囲で強力なパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 34.560172199398075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Impressive progress has been made on chat models based on Large Language
Models (LLMs) recently; however, there is a noticeable lag in multi-turn
conversations between open-source chat models (e.g., Alpaca and Vicuna) and the
leading chat models (e.g., ChatGPT and GPT-4). Through a series of analyses, we
attribute the lag to the lack of enough high-quality multi-turn
instruction-tuning data. The available instruction-tuning data for the
community are either single-turn conversations or multi-turn ones with certain
issues, such as non-human-like instructions, less detailed responses, or rare
topic shifts. In this paper, we address these challenges by introducing Parrot,
a highly scalable solution designed to automatically generate high-quality
instruction-tuning data, which are then used to enhance the effectiveness of
chat models in multi-turn conversations. Specifically, we start by training the
Parrot-Ask model, which is designed to emulate real users in generating
instructions. We then utilize Parrot-Ask to engage in multi-turn conversations
with ChatGPT across a diverse range of topics, resulting in a collection of 40K
high-quality multi-turn dialogues (Parrot-40K). These data are subsequently
employed to train a chat model that we have named Parrot-Chat. We demonstrate
that the dialogues gathered from Parrot-Ask markedly outperform existing
multi-turn instruction-following datasets in critical metrics, including topic
diversity, number of turns, and resemblance to human conversation. With only
40K training examples, Parrot-Chat achieves strong performance against other
13B open-source models across a range of instruction-following benchmarks, and
particularly excels in evaluations of multi-turn capabilities. We make all
codes, datasets, and two versions of the Parrot-Ask model based on LLaMA2-13B
and KuaiYii-13B available at https://github.com/kwai/KwaiYii/Parrot.
- Abstract(参考訳): 近年、Large Language Models (LLMs) に基づくチャットモデルにおいて、印象的な進歩がなされているが、オープンソースのチャットモデル(AlpacaやVicunaなど)と主要なチャットモデル(ChatGPTやGPT-4など)とのマルチターン会話の遅れが顕著である。
一連の分析を通じて、遅延は十分な高品質のマルチターン命令チューニングデータの欠如に帰着する。
コミュニティで利用可能なインストラクションチューニングデータは、シングルターン会話か、非人間的なインストラクション、より詳細なレスポンス、まれなトピックシフトなど、特定の問題のあるマルチターン会話である。
本稿では,マルチターン会話におけるチャットモデルの有効性を高めるために,高品質な命令チューニングデータの自動生成を目的とした,スケーラブルなソリューションであるParrotを導入することで,これらの課題に対処する。
具体的には、実際のユーザをエミュレートして命令を生成するParrot-Askモデルをトレーニングすることから始める。
次にParrot-Askを用いてChatGPTとの多ターン会話を多種多様なトピックにわたって行い、結果として40Kの高品質な多ターン対話(Parrot-40K)を収集する。
これらのデータは、Parrot-Chatという名前のチャットモデルをトレーニングするために使用される。
本研究では,Parrot-Askから集めた対話が,トピックの多様性,ターン数,人間会話との類似性など,既存のマルチターン命令フォローデータセットを著しく上回ることを示す。
たった40Kのトレーニング例で、Parrot-Chatは他の13Bオープンソースモデルに対して、命令追従ベンチマークの範囲で強力なパフォーマンスを実現している。
LLaMA2-13BとKuaiYii-13Bに基づくParrot-Askモデルのコード、データセット、2つのバージョンをhttps://github.com/kwai/KwaiYii/Parrotで公開しています。
関連論文リスト
- Faithful Persona-based Conversational Dataset Generation with Large
Language Models [10.506653172302222]
高品質な会話データセットは、ユーザと通信可能なAIモデルを開発する上で不可欠である。
我々は,会話の質を向上しつつ,初期データセットを拡張するためのGenerator-Criticアーキテクチャフレームワークを提案する。
我々はPersona-Chatからシードされた20万の会話からなるSynthetic-Persona-Chatをリリースする。
論文 参考訳(メタデータ) (2023-12-15T18:23:50Z) - Sparkles: Unlocking Chats Across Multiple Images for Multimodal
Instruction-Following Models [64.43988773982852]
本稿では,複数の画像にまたがるオープンエンド対話のためのマルチモーダル命令追従モデルSparklesChatを提案する。
トレーニングを支援するために,単語レベルのインターリーブ・マルチイメージとテキストインタラクションに適した,最初の機械生成対話データセットであるSparklesueを紹介した。
本研究では,複数の画像間の理解と推論におけるSparklesChatの有効性を検証した。
論文 参考訳(メタデータ) (2023-08-31T05:15:27Z) - PlatoLM: Teaching LLMs via a Socratic Questioning User Simulator [42.27783372568634]
ChatGPTは民主化への取り組みを刺激し、実際のユーザとChatGPTの会話を活用することで、注目すべき一歩を踏み出した。
BaizeやUltraChatといった現在の取り組みは、会話データを自動的に生成することを目指している。
我々は、高品質な人間中心の合成会話データセットを作成するために、Socraticと呼ばれるユーザーシミュレータを訓練する。
このデータセットは、PlatoLMという名前のアシスタントモデルをトレーニングするために使われました。
論文 参考訳(メタデータ) (2023-08-21T06:51:56Z) - Enhancing Chat Language Models by Scaling High-quality Instructional
Conversations [91.98516412612739]
まず,UltraChatという,体系的に設計され,多様で,情報的,大規模な会話データセットを提供する。
我々の目標は、人間がAIアシスタントで持つであろう対話の幅を捉えることです。
我々はLLaMAモデルを微調整し、強力な対話モデルであるUltraLLaMAを作成する。
論文 参考訳(メタデータ) (2023-05-23T16:49:14Z) - SMILE: Single-turn to Multi-turn Inclusive Language Expansion via
ChatGPT for Mental Health Support [28.370263099251638]
SMILEは、ChatGPTが公開のシングルターン対話をマルチターン言語に書き換えるよう促すマルチターン包括的言語拡張技術である。
我々は55,165の対話からなる大規模で多種多様な高品質な対話データセットSmileChatを作成し、対話毎に平均10.4回転する。
SmileChatの全体的な品質を評価するために,82のカウンセリング対話からなる実生活チャットデータセットをモデル評価のために収集した。
論文 参考訳(メタデータ) (2023-04-30T11:26:10Z) - Baize: An Open-Source Chat Model with Parameter-Efficient Tuning on
Self-Chat Data [101.63682141248069]
ChatGPTのようなチャットモデルは印象的な機能を示しており、多くのドメインで急速に採用されている。
本稿では,ChatGPTを利用して,高品質なマルチターンチャットコーパスを自動生成するパイプラインを提案する。
我々は,オープンソースの大規模言語モデルであるLLaMAを強化するために,パラメータ効率のチューニングを用いる。
論文 参考訳(メタデータ) (2023-04-03T17:59:09Z) - TikTalk: A Video-Based Dialogue Dataset for Multi-Modal Chitchat in Real
World [97.58623810402563]
我々はTikTalkと呼ばれるビデオベースのマルチモーダル対話データセットを導入する。
人気ビデオ共有プラットフォームから38Kのビデオを収集し、その下のユーザーから367Kの会話を投稿した。
ユーザーはビデオのマルチモーダルな体験に基づいて自発的な会話をし、現実世界のchitchatコンテキストを再現する。
論文 参考訳(メタデータ) (2023-01-14T10:18:22Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。