論文の概要: AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models
- arxiv url: http://arxiv.org/abs/2308.06507v1
- Date: Sat, 12 Aug 2023 08:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 16:53:08.829460
- Title: AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models
- Title(参考訳): AutoConv: 大規模言語モデルによる情報探索会話の自動生成
- Authors: Siheng Li, Cheng Yang, Yichun Yin, Xinyu Zhu, Zesen Cheng, Lifeng
Shang, Xin Jiang, Qun Liu, Yujiu Yang
- Abstract要約: 合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
- 参考スコア(独自算出の注目度): 74.10293412011455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information-seeking conversation, which aims to help users gather information
through conversation, has achieved great progress in recent years. However, the
research is still stymied by the scarcity of training data. To alleviate this
problem, we propose AutoConv for synthetic conversation generation, which takes
advantage of the few-shot learning ability and generation capacity of large
language models (LLM). Specifically, we formulate the conversation generation
problem as a language modeling task, then finetune an LLM with a few human
conversations to capture the characteristics of the information-seeking process
and use it for generating synthetic conversations with high quality.
Experimental results on two frequently-used datasets verify that AutoConv has
substantial improvements over strong baselines and alleviates the dependence on
human annotation. In addition, we also provide several analysis studies to
promote future research.
- Abstract(参考訳): ユーザが会話を通じて情報収集を支援する情報検索会話は,近年,大きな進歩を遂げている。
しかし、この研究はトレーニングデータの不足によっていまだに悪化している。
この問題を軽減するために,大規模言語モデル(LLM)の少数ショット学習能力と生成能力を活用する合成会話生成のためのAutoConvを提案する。
具体的には、会話生成問題を言語モデリングタスクとして定式化し、数個の人間の会話でllmを微調整し、情報検索プロセスの特徴を捉え、高品質な合成会話を生成する。
2つの頻繁に使用されるデータセットの実験結果は、AutoConvが強いベースラインよりも大幅に改善されていることを確認し、人間のアノテーションへの依存を軽減する。
また,今後の研究を促進するために,いくつかの分析研究も行っている。
関連論文リスト
- Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Faithful Persona-based Conversational Dataset Generation with Large
Language Models [10.506653172302222]
高品質な会話データセットは、ユーザと通信可能なAIモデルを開発する上で不可欠である。
我々は,会話の質を向上しつつ,初期データセットを拡張するためのGenerator-Criticアーキテクチャフレームワークを提案する。
我々はPersona-Chatからシードされた20万の会話からなるSynthetic-Persona-Chatをリリースする。
論文 参考訳(メタデータ) (2023-12-15T18:23:50Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Dynamic Planning in Open-Ended Dialogue using Reinforcement Learning [35.67318830455459]
我々は、強化学習(RL)を用いて、ロボットの対話能力を大規模に活用するリアルタイムかつオープンな対話システムを開発した。
我々の作業は、動的行動空間に特に適するRL技術とSOTA言語モデルを用いて生成された会話状態の簡潔な埋め込みをペアリングする。
論文 参考訳(メタデータ) (2022-07-25T16:12:33Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - A Neural Conversation Generation Model via Equivalent Shared Memory
Investigation [39.922967513749654]
DRMN(Deep Reading Memory Network)と呼ばれる新しい読み書き・記憶フレームワークを提案する。
DRMNは、発話生成を改善するために、類似した会話の有用な情報を記憶することができる。
弊社のモデルは、正義とeコマースの2つの大規模な会話データセットに適用する。
論文 参考訳(メタデータ) (2021-08-20T13:20:14Z) - Summary Grounded Conversation Generation [10.470157142861174]
入力として会話の要約だけを考えると、事前学習された言語モデルがどのように会話全体を生成できるかを示す。
また,会話要約データセットを生成された会話で拡張することにより,会話要約の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-06-07T04:46:31Z) - Deploying Lifelong Open-Domain Dialogue Learning [48.12600947313494]
本研究では,オープンドメインファンタジーの世界にある学習エージェントと人間プレイヤーが会話するロールプレイングゲームを構築し,展開する。
自動メトリクスとオンラインエンゲージメントスコアから,ゲーム中の人間との会話に関するモデルをトレーニングすることで,モデルを段階的に改善することを示す。
この学習は、実際のユーザとの会話に適用した場合のクラウドソースデータよりも効率的であり、収集するコストもはるかに安い。
論文 参考訳(メタデータ) (2020-08-18T17:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。