論文の概要: User-Specific Dialogue Generation with User Profile-Aware Pre-Training Model and Parameter-Efficient Fine-Tuning
- arxiv url: http://arxiv.org/abs/2409.00887v1
- Date: Mon, 2 Sep 2024 01:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 08:30:49.500765
- Title: User-Specific Dialogue Generation with User Profile-Aware Pre-Training Model and Parameter-Efficient Fine-Tuning
- Title(参考訳): ユーザプロファイルを考慮した事前学習モデルとパラメータ効率の良いファインチューニングによるユーザ特異的対話生成
- Authors: Atsushi Otsuka, Kazuya Matsuo, Ryo Ishii, Narichika Nomoto, Hiroaki Sugiyama,
- Abstract要約: ユーザ固有の対話は、ペルソナに基づく対話以上の実際のユーザ対話を再現することを目的としている。
対象ユーザの対話履歴を用いた微調整は,ユーザ固有のモデルの効率的な学習方法である。
本稿では,パラメータ効率の良い微調整と事前学習された対話モデルを組み合わせることで,ユーザ固有モデルの学習手法を提案する。
- 参考スコア(独自算出の注目度): 2.2859366462875794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses user-specific dialogs. In contrast to previous research on personalized dialogue focused on achieving virtual user dialogue as defined by persona descriptions, user-specific dialogue aims to reproduce real-user dialogue beyond persona-based dialogue. Fine-tuning using the target user's dialogue history is an efficient learning method for a user-specific model. However, it is prone to overfitting and model destruction due to the small amount of data. Therefore, we propose a learning method for user-specific models by combining parameter-efficient fine-tuning with a pre-trained dialogue model that includes user profiles. Parameter-efficient fine-tuning adds a small number of parameters to the entire model, so even small amounts of training data can be trained efficiently and are robust to model destruction. In addition, the pre-trained model, which is learned by adding simple prompts for automatically inferred user profiles, can generate speech with enhanced knowledge of the user's profile, even when there is little training data during fine-tuning. In experiments, we compared the proposed model with large-language-model utterance generation using prompts containing users' personal information. Experiments reproducing real users' utterances revealed that the proposed model can generate utterances with higher reproducibility than the compared methods, even with a small model.
- Abstract(参考訳): 本稿では,ユーザ固有のダイアログについて述べる。
パーソナライズされた対話を人格記述で定義した仮想ユーザ対話に焦点をあてた以前の研究とは対照的に、ユーザ固有の対話は、人格に基づく対話以外の実際のユーザ対話を再現することを目的としている。
対象ユーザの対話履歴を用いた微調整は,ユーザ固有のモデルの効率的な学習方法である。
しかし、少量のデータのために過度に適合し、破壊する傾向がある。
そこで本研究では,パラメータ効率の良い微調整と,ユーザプロファイルを含む事前学習された対話モデルを組み合わせることで,ユーザ固有モデルの学習手法を提案する。
パラメータ効率の良い微調整は、モデル全体に少数のパラメータを追加するため、少量のトレーニングデータでも効率的にトレーニングすることができ、モデル破壊に対して堅牢である。
さらに、自動推論されたユーザプロファイルに対する簡単なプロンプトを追加して学習した事前学習モデルは、微調整中のトレーニングデータが少ない場合でも、ユーザのプロファイルに関する知識を増強した音声を生成することができる。
実験では,ユーザの個人情報を含むプロンプトを用いて,提案モデルと大言語モデル発話生成を比較した。
実ユーザの発話を再現する実験により,提案モデルでは,小さいモデルであっても,比較手法よりも再現性の高い発話を生成できることが判明した。
関連論文リスト
- Personalized Language Modeling from Personalized Human Feedback [49.344833339240566]
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)は、人間の好みに合わせて大きな言語モデルを微調整するために一般的に用いられる。
本研究では,パーソナライズされた言語モデルを構築する手法を開発することにより,この問題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - In-Context Learning User Simulators for Task-Oriented Dialog Systems [1.7086737326992172]
本稿では,タスク指向対話システムにおけるユーザシミュレーションにおける大規模言語モデルの新たな応用について述べる。
提案手法は,これらのモデルのパワーを生かして,ユーザ目標と限られた対話例に基づく多様な発話を生成する。
論文 参考訳(メタデータ) (2023-06-01T15:06:11Z) - Interactive Text Generation [75.23894005664533]
我々は,対話型テキスト生成タスクを導入し,実際のユーザを巻き込むことなく,対話型テキスト生成モデルのトレーニングを可能にする。
我々は、Imitation Learningを用いてインタラクティブモデルをトレーニングし、競合する非インタラクティブな生成モデルに対する実験により、インタラクティブにトレーニングされたモデルは非インタラクティブなモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-02T01:57:17Z) - MCP: Self-supervised Pre-training for Personalized Chatbots with
Multi-level Contrastive Sampling [18.40883902610959]
個人化されたチャットボットのための対話履歴からより良い表現を抽出するための自己教師型学習フレームワークを提案する。
具体的には、ユーザダイアログ履歴に隠された教師付き信号を利用するために、対照的なサンプリング手法を適用する。
2つの実世界のデータセットに対する実験結果から,提案したモデルMPPは既存手法と比較して大幅に改善された。
論文 参考訳(メタデータ) (2022-10-17T05:16:23Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation [107.82729587882397]
現在のペルソナベースの対話データセットのスケールアップには費用がかかる。
このタスクの各データサンプルは、従来の対話データよりも複雑である。
本稿では,ペルソナをベースとした対話生成モデルにおいて,モデルに依存しないデータ操作手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T03:49:54Z) - Less is More: Learning to Refine Dialogue History for Personalized
Dialogue Generation [57.73547958927826]
我々は,対話履歴をより多く処理し,より正確なペルソナ情報を得ることのできる,ユーザ対話履歴を大規模に洗練することを提案する。
具体的には、3つの個人情報精算器とパーソナライズされた応答生成器で構成されるMSPモデルを設計する。
論文 参考訳(メタデータ) (2022-04-18T02:02:56Z) - Learning to Predict Persona Information forDialogue Personalization
without Explicit Persona Description [10.17868476063421]
対話エージェントをパーソナライズするために,対話履歴に基づいてペルソナ情報を予測する方法を提案する。
PersonaChatデータセットの実験結果から,提案手法は生成した応答の一貫性を向上させることができることがわかった。
トレーニングされたペルソナ予測モデルは、他のデータセットにうまく転送することができ、より関連するレスポンスを生成するのに役立つ。
論文 参考訳(メタデータ) (2021-11-30T03:19:24Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。