論文の概要: Dialogue Language Model with Large-Scale Persona Data Engineering
- arxiv url: http://arxiv.org/abs/2412.09034v2
- Date: Wed, 19 Feb 2025 15:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:56:04.423635
- Title: Dialogue Language Model with Large-Scale Persona Data Engineering
- Title(参考訳): 大規模人物データ工学を用いた対話言語モデル
- Authors: Mengze Hong, Chen Jason Zhang, Chaotao Chen, Rongzhong Lian, Di Jiang,
- Abstract要約: PPDSはオープンドメインのペルソナ対話システムであり、ペルソナの一貫性を高めるためにペルソナ対話データセットに広範囲な生成前トレーニングを利用する。
本研究では,自律的かつ高精度な対話データセット生成を目的としたペルソナ抽出モデルを提案する。
また、構築されたデータセットに固有の無効なペルソナバイアスに対処するために、先駆的なペルソナ拡張手法を公表した。
- 参考スコア(独自算出の注目度): 10.160626284195434
- License:
- Abstract: Maintaining persona consistency is paramount in the application of open-domain dialogue systems, as exemplified by models like ChatGPT. Despite significant advancements, the limited scale and diversity of current persona dialogue datasets remain challenges to achieving robust persona-consistent dialogue models. In this study, drawing inspiration from the success of large-scale pre-training, we introduce PPDS, an open-domain persona dialogue system that employs extensive generative pre-training on a persona dialogue dataset to enhance persona consistency. Specifically, we present a persona extraction model designed to autonomously and precisely generate vast persona dialogue datasets. Additionally, we unveil a pioneering persona augmentation technique to address the invalid persona bias inherent in the constructed dataset. Both quantitative and human evaluations consistently highlight the superior response quality and persona consistency of our proposed model, underscoring its effectiveness.
- Abstract(参考訳): ChatGPTのようなモデルが示すように、オープンドメイン対話システムの適用においては、ペルソナの一貫性を維持することが最重要である。
大幅な進歩にもかかわらず、現在のペルソナ対話データセットの規模と多様性は、堅牢なペルソナ一貫性対話モデルを達成するための課題のままである。
本研究では,大規模な事前学習の成功から着想を得たオープンドメインのペルソナ対話システムPPDSを紹介する。
具体的には,膨大な対話データセットを自律的かつ正確に生成するペルソナ抽出モデルを提案する。
さらに、構築されたデータセットに固有の無効なペルソナバイアスに対処するために、先駆的なペルソナ拡張手法を公表する。
定量的評価と人的評価は、提案モデルの優れた応答品質とペルソナの整合性を一貫して強調し、その効果を裏付けるものである。
関連論文リスト
- "In Dialogues We Learn": Towards Personalized Dialogue Without Pre-defined Profiles through In-Dialogue Learning [37.307408706864514]
In-Dialogue Learning (IDL) は、対話履歴を利用してペルソナを特徴づける、事前訓練された大規模言語モデルの能力を高めるための微調整フレームワークである。
3つのデータセットに対する実験により,IDLはBLEUとROUGEのスコアを最大200%,ROUGEは247%向上した。
論文 参考訳(メタデータ) (2024-03-05T16:43:03Z) - WHAT, WHEN, and HOW to Ground: Designing User Persona-Aware
Conversational Agents for Engaging Dialogue [4.328280329592151]
本稿では,WWH問題に対処するオープンドメイン対話システムを構築する方法を提案する。
提案手法は、重み付けされたデータセットブレンディング、ネガティブなペルソナ情報拡張方法、パーソナライズされた会話データセットの設計を含む。
本研究は,対話の流速と接地傾向のバランスを効果的に保ちつつ,接地応答の制御性と説明性を向上させるための応答型ラベルを導入する。
論文 参考訳(メタデータ) (2023-06-06T02:28:38Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation [107.82729587882397]
現在のペルソナベースの対話データセットのスケールアップには費用がかかる。
このタスクの各データサンプルは、従来の対話データよりも複雑である。
本稿では,ペルソナをベースとした対話生成モデルにおいて,モデルに依存しないデータ操作手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T03:49:54Z) - Less is More: Learning to Refine Dialogue History for Personalized
Dialogue Generation [57.73547958927826]
我々は,対話履歴をより多く処理し,より正確なペルソナ情報を得ることのできる,ユーザ対話履歴を大規模に洗練することを提案する。
具体的には、3つの個人情報精算器とパーソナライズされた応答生成器で構成されるMSPモデルを設計する。
論文 参考訳(メタデータ) (2022-04-18T02:02:56Z) - Learning to Predict Persona Information forDialogue Personalization
without Explicit Persona Description [10.17868476063421]
対話エージェントをパーソナライズするために,対話履歴に基づいてペルソナ情報を予測する方法を提案する。
PersonaChatデータセットの実験結果から,提案手法は生成した応答の一貫性を向上させることができることがわかった。
トレーニングされたペルソナ予測モデルは、他のデータセットにうまく転送することができ、より関連するレスポンスを生成するのに役立つ。
論文 参考訳(メタデータ) (2021-11-30T03:19:24Z) - DLVGen: A Dual Latent Variable Approach to Personalized Dialogue
Generation [28.721411816698563]
本稿では,パーソナライズされた対話を生成するDual Latent Variable Generator (DLVGen)を提案する。
以前の研究とは異なり、DLVGenは潜在的な応答に対する潜伏分布と、エージェントの潜在的なペルソナに対する潜伏分布をモデル化している。
実験の結果,DLVGenはエージェントのペルソナを正確に組み込んだ多様な応答を生成できることがわかった。
論文 参考訳(メタデータ) (2021-11-22T17:21:21Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。