論文の概要: PersonaPKT: Building Personalized Dialogue Agents via
Parameter-efficient Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2306.08126v1
- Date: Tue, 13 Jun 2023 20:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 22:51:32.650178
- Title: PersonaPKT: Building Personalized Dialogue Agents via
Parameter-efficient Knowledge Transfer
- Title(参考訳): ペルソナPKT:パラメータ効率を考慮した対話エージェントの構築
- Authors: Xu Han, Bin Guo, Yoon Jung, Benjamin Yao, Yu Zhang, Xiaohu Liu,
Chenlei Guo
- Abstract要約: PersonaPKTは、明示的なペルソナ記述なしでペルソナ一貫性のある対話モデルを構築することができる軽量なトランスファー学習アプローチである。
ペルソナを連続ベクトルとして表現することにより、ペルソナ固有の特徴を直接少数の対話サンプルから学習する。
実証実験の結果,ペルソナPKTは,高ストレージ効率のパーソナライズされたDAを効果的に構築できることが示された。
- 参考スコア(独自算出の注目度): 15.069834404982243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized dialogue agents (DAs) powered by large pre-trained language
models (PLMs) often rely on explicit persona descriptions to maintain
personality consistency. However, such descriptions may not always be available
or may pose privacy concerns. To tackle this bottleneck, we introduce
PersonaPKT, a lightweight transfer learning approach that can build
persona-consistent dialogue models without explicit persona descriptions. By
representing each persona as a continuous vector, PersonaPKT learns implicit
persona-specific features directly from a small number of dialogue samples
produced by the same persona, adding less than 0.1% trainable parameters for
each persona on top of the PLM backbone. Empirical results demonstrate that
PersonaPKT effectively builds personalized DAs with high storage efficiency,
outperforming various baselines in terms of persona consistency while
maintaining good response generation quality. In addition, it enhances privacy
protection by avoiding explicit persona descriptions. Overall, PersonaPKT is an
effective solution for creating personalized DAs that respect user privacy.
- Abstract(参考訳): パーソナライズされた対話エージェント(DA)は、大きな事前訓練された言語モデル(PLM)によって駆動される。
しかし、そのような記述が常に利用可能であるとは限らないし、プライバシーの懸念を生じさせることもある。
このボトルネックに取り組むため,我々はペルソナ一貫性のある対話モデルを構築するための軽量なトランスファー学習手法であるpersonapktを紹介する。
ペルソナを連続ベクトルとして表現することにより、ペルソナが生成する少数の対話サンプルから直接暗黙のペルソナ特有の特徴を学習し、PLMバックボーン上のペルソナごとに0.1%未満のトレーニングパラメータを追加する。
実験の結果,ペルソナ一貫性の面では,高いストレージ効率でパーソナライズされたdasを効果的に構築し,優れた応答生成品質を維持しつつ,さまざまなベースラインを上回った。
さらに、明示的なペルソナ記述を避けることにより、プライバシー保護を強化する。
全体として、personapktはユーザーのプライバシーを尊重するパーソナライズされたdasを作成するための効果的なソリューションである。
関連論文リスト
- Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - MPCHAT: Towards Multimodal Persona-Grounded Conversation [54.800425322314105]
我々はペルソナに基づく対話をマルチモーダル領域に拡張し、2つの主要な貢献をする。
まず,MPCHATという対話データセットを提案する。
第2に,マルチモーダル・ペルソナを組み込んだ多モーダル・ペルソナの対話タスクが,統計的に有意な性能向上をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2023-05-27T06:46:42Z) - Improving Personality Consistency in Conversation by Persona Extending [22.124187337032946]
本稿では,Persona Retrieval Model(PRM)とPosterior-Scored Transformer(PS-Transformer)の2つのサブコンポーネントからなる新しい検索・予測パラダイムを提案する。
提案モデルでは,自動測定と人的評価の両面で大幅に改善されている。
論文 参考訳(メタデータ) (2022-08-23T09:00:58Z) - Less is More: Learning to Refine Dialogue History for Personalized
Dialogue Generation [57.73547958927826]
我々は,対話履歴をより多く処理し,より正確なペルソナ情報を得ることのできる,ユーザ対話履歴を大規模に洗練することを提案する。
具体的には、3つの個人情報精算器とパーソナライズされた応答生成器で構成されるMSPモデルを設計する。
論文 参考訳(メタデータ) (2022-04-18T02:02:56Z) - Towards Building a Personalized Dialogue Generator via Implicit User
Persona Detection [0.0]
高品質なトランスミッションは基本的に、相手のペルソナを反映して構築されていると考えています。
そこで本研究では,暗黙のユーザペルソナを検知する対話生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T08:12:10Z) - Learning to Predict Persona Information forDialogue Personalization
without Explicit Persona Description [10.17868476063421]
対話エージェントをパーソナライズするために,対話履歴に基づいてペルソナ情報を予測する方法を提案する。
PersonaChatデータセットの実験結果から,提案手法は生成した応答の一貫性を向上させることができることがわかった。
トレーニングされたペルソナ予測モデルは、他のデータセットにうまく転送することができ、より関連するレスポンスを生成するのに役立つ。
論文 参考訳(メタデータ) (2021-11-30T03:19:24Z) - DLVGen: A Dual Latent Variable Approach to Personalized Dialogue
Generation [28.721411816698563]
本稿では,パーソナライズされた対話を生成するDual Latent Variable Generator (DLVGen)を提案する。
以前の研究とは異なり、DLVGenは潜在的な応答に対する潜伏分布と、エージェントの潜在的なペルソナに対する潜伏分布をモデル化している。
実験の結果,DLVGenはエージェントのペルソナを正確に組み込んだ多様な応答を生成できることがわかった。
論文 参考訳(メタデータ) (2021-11-22T17:21:21Z) - Will I Sound Like Me? Improving Persona Consistency in Dialogues through
Pragmatic Self-Consciousness [62.55060760615656]
一貫性に対処する最近のモデルは、しばしば追加の自然言語推論(NLI)ラベルでトレーニングするか、あるいは一貫性を維持するためにトレーニングされた追加モジュールを生成エージェントにアタッチする。
社会的認知と実用性に触発されて、私たちは既存の対話エージェントに、想像上のリスナーを通して、公的な自己意識を持たせました。
我々のアプローチは、Rational Speech Actsフレームワークに基づいて、会話エージェントに矛盾の発声を控えるように強制することができる。
論文 参考訳(メタデータ) (2020-04-13T08:16:16Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。