論文の概要: PersonalityChat: Conversation Distillation for Personalized Dialog
Modeling with Facts and Traits
- arxiv url: http://arxiv.org/abs/2401.07363v1
- Date: Sun, 14 Jan 2024 20:35:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:30:12.616691
- Title: PersonalityChat: Conversation Distillation for Personalized Dialog
Modeling with Facts and Traits
- Title(参考訳): PersonalityChat: Facts and Traitsを用いたパーソナライズダイアログモデリングのための会話蒸留
- Authors: Ehsan Lotfi, Maxime De Bruyn, Jeska Buhmann, Walter Daelemans
- Abstract要約: PersonalityChatは、人気のPersonaChatデータセットに基づいた合成会話データセットである。
生成対話モデルの特質に基づくパーソナライズには,性格特性ラベルが有効であることを示す。
- 参考スコア(独自算出の注目度): 5.447308344436046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The new wave of Large Language Models (LLM) has offered an efficient tool to
curate sizeable conversational datasets. So far studies have mainly focused on
task-oriented or generic open-domain dialogs, and have not fully explored the
ability of LLMs in following complicated prompts. In this work, we focus on
personalization, and employ LLMs to curate a dataset which is difficult and
costly to crowd-source: PersonalityChat is a synthetic conversational dataset
based upon the popular PersonaChat dataset, but conditioned on both personas
and (Big-5) personality traits. Evaluating models fine-tuned on this dataset,
we show that the personality trait labels can be used for trait-based
personalization of generative dialogue models. We also perform a head-to-head
comparison between PersonalityChat and PersonaChat, and show that training on
the distilled dataset results in more fluent and coherent dialog agents in the
small-model regime.
- Abstract(参考訳): 新しいLarge Language Models(LLM)は、大きな会話データセットをキュレートする効率的なツールを提供する。
これまでの研究は主にタスク指向またはジェネリックなopen-domainダイアログにフォーカスしており、複雑なプロンプトに従うllmの機能を完全には検討していない。
本研究では,パーソナライゼーションに重点を置き,クラウドソースにとって困難かつコストのかかるデータセットのキュレーションにllmを用いる。 パーソナラチャットは,一般的なペルソナチャットデータセットに基づく合成会話データセットだが,ペルソナと(ビッグ5)パーソナリティ特性の両方を条件とする。
このデータセットに基づいて微調整されたモデルを評価することで、パーソナリティ特性ラベルが生成対話モデルの特性に基づくパーソナライズに利用できることを示す。
また,パーソナリティチャットとペルソナチャットを頭対頭で比較し,蒸留データセットのトレーニングにより,小モデル環境においてより流動的でコヒーレントな対話エージェントが得られることを示す。
関連論文リスト
- Exploring the Potential of Large Language Models to Simulate Personality [39.58317527488534]
我々は,大言語モデル(LLM)を用いて,ビッグファイブモデルに従って個人特性をシミュレートすることを目指している。
本稿では,事前に定義された5つの特徴を持つ生成テキストのデータセットを提示し,パーソナリティスキルのシミュレーションに基づいてLLMをテストするための分析フレームワークを提供する。
論文 参考訳(メタデータ) (2025-02-12T10:17:18Z) - Beyond Discrete Personas: Personality Modeling Through Journal Intensive Conversations [6.404122934568859]
約40万の対話を伴う新しいデータセットと、Redditの長文のジャーナルエントリを用いてパーソナライズされた会話を生成するフレームワークを導入する。
提案手法では,各著者のジャーナルエントリをクラスタリングし,最も代表的なクラスタを選択してフィルタすることにより,保持されているエントリが著者の個性を最もよく反映していることを確認した。
我々は、オープン性、良心性、外向性、同意性、神経症といったビッグファイブの性格特性を捉えて、さらにデータを洗練する。
Llama 370Bを用いて,これらの論文に基づいた高品質で人格に富んだ対話を生成する。
論文 参考訳(メタデータ) (2024-12-15T17:16:08Z) - PSYDIAL: Personality-based Synthetic Dialogue Generation using Large Language Models [4.283022729693451]
本稿では,大規模言語モデルからの応答をプロンプトによって引き出すための,エンドツーエンドのパーソナリティに基づく合成対話データ生成パイプラインを提案する。
提案したパイプラインを用いて,パーソナリティに基づく対話に焦点を当てた韓国初の対話データセットPSYDIALを紹介した。
実験結果から, 事前学習モデルと, チャイトチャットデータセットを用いた微調整モデルでは, 人格を反映する応答を生成するのに苦労する一方で, PSYDIALでトレーニングしたモデルでは, 大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-04-01T05:19:34Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Faithful Persona-based Conversational Dataset Generation with Large
Language Models [10.506653172302222]
高品質な会話データセットは、ユーザと通信可能なAIモデルを開発する上で不可欠である。
我々は,会話の質を向上しつつ,初期データセットを拡張するためのGenerator-Criticアーキテクチャフレームワークを提案する。
我々はPersona-Chatからシードされた20万の会話からなるSynthetic-Persona-Chatをリリースする。
論文 参考訳(メタデータ) (2023-12-15T18:23:50Z) - Enhancing Chat Language Models by Scaling High-quality Instructional
Conversations [91.98516412612739]
まず,UltraChatという,体系的に設計され,多様で,情報的,大規模な会話データセットを提供する。
我々の目標は、人間がAIアシスタントで持つであろう対話の幅を捉えることです。
我々はLLaMAモデルを微調整し、強力な対話モデルであるUltraLLaMAを作成する。
論文 参考訳(メタデータ) (2023-05-23T16:49:14Z) - Enhancing Personalized Dialogue Generation with Contrastive Latent
Variables: Combining Sparse and Dense Persona [16.90863217077699]
既存のパーソナライズされた対話エージェントは、スパースまたは密集したペルソナ記述と対話履歴という3つのリソースからペルソナプロファイルをモデル化する。
3つのリソースの利点を組み合わせて、より豊かで正確なペルソナを得る。
中国語と英語のデータセットに対する実験結果は、パーソナライゼーションにおけるモデルの優位性を示している。
論文 参考訳(メタデータ) (2023-05-19T07:24:27Z) - Weakly Supervised Data Augmentation Through Prompting for Dialogue
Understanding [103.94325597273316]
本稿では,弱教師付きフィルタを適用して拡張品質を反復する手法を提案する。
我々は、デイリーダイアログにおける感情と行動の分類タスクと、Facebook Multilingual Task-Oriented Dialogueにおける意図の分類タスクについて評価した。
特にDailyDialogでは、真理データの10%を使用して、100%のデータを使用する現在の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2022-10-25T17:01:30Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation [107.82729587882397]
現在のペルソナベースの対話データセットのスケールアップには費用がかかる。
このタスクの各データサンプルは、従来の対話データよりも複雑である。
本稿では,ペルソナをベースとした対話生成モデルにおいて,モデルに依存しないデータ操作手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T03:49:54Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。