論文の概要: P5: Plug-and-Play Persona Prompting for Personalized Response Selection
- arxiv url: http://arxiv.org/abs/2310.06390v1
- Date: Tue, 10 Oct 2023 07:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 18:20:37.381515
- Title: P5: Plug-and-Play Persona Prompting for Personalized Response Selection
- Title(参考訳): P5: パーソナライズされた応答選択のためのプラグアンドプレイペルソナプロンプト
- Authors: Joosung Lee, Minsik Oh, Donghun Lee
- Abstract要約: パーソナライズされた応答選択の問題を解決するために,プラグアンドプレイペルソナプロセッシング手法を提案する。
提案手法はゼロショット・セッティングにおいて良好に機能し,ペルソナ・グラウンド・トレーニングデータへの依存を低減させる。
これは、プロンプトシーケンスを用いたパーソナライズされた応答選択の問題を解決するための最初の試みである。
- 参考スコア(独自算出の注目度): 8.326121382736217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of persona-grounded retrieval-based chatbots is crucial for
personalized conversations, but there are several challenges that need to be
addressed. 1) In general, collecting persona-grounded corpus is very expensive.
2) The chatbot system does not always respond in consideration of persona at
real applications. To address these challenges, we propose a plug-and-play
persona prompting method. Our system can function as a standard open-domain
chatbot if persona information is not available. We demonstrate that this
approach performs well in the zero-shot setting, which reduces the dependence
on persona-ground training data. This makes it easier to expand the system to
other languages without the need to build a persona-grounded corpus.
Additionally, our model can be fine-tuned for even better performance. In our
experiments, the zero-shot model improved the standard model by 7.71 and 1.04
points in the original persona and revised persona, respectively. The
fine-tuned model improved the previous state-of-the-art system by 1.95 and 3.39
points in the original persona and revised persona, respectively. To the best
of our knowledge, this is the first attempt to solve the problem of
personalized response selection using prompt sequences. Our code is available
on github~\footnote{https://github.com/rungjoo/plug-and-play-prompt-persona}.
- Abstract(参考訳): パーソナライズされた検索ベースのチャットボットの使用は、パーソナライズされた会話には不可欠だが、対処すべき課題がいくつかある。
1) 一般に, 人格的コーパスの収集は非常に費用がかかる。
2) 実アプリケーションにおけるペルソナを考慮したチャットボットシステムは必ずしも応答しない。
これらの課題に対処するために,プラグアンドプレイのペルソナプロンプト手法を提案する。
本システムは,ペルソナ情報が得られない場合,標準のオープンドメインチャットボットとして機能する。
ゼロショット設定では,この手法が良好に動作し,ペルソナ-グラウンドトレーニングデータへの依存を低減できることを示す。
これにより、ペルソナグラウンドのコーパスを構築することなく、システムを他の言語に拡張しやすくなる。
さらに、我々のモデルはより優れたパフォーマンスのために微調整できる。
実験では,ゼロショットモデルにより,オリジナルのペルソナでは7.71点,改訂されたペルソナでは1.04点の標準モデルが改善された。
微調整されたモデルは、以前の最先端のシステムを元のペルソナと改訂されたペルソナでそれぞれ1.5ポイントと3.39ポイント改善した。
我々の知る限りでは、即時シーケンスを用いたパーソナライズされた応答選択の問題を解決するための最初の試みである。
私たちのコードはgithub~\footnote{https://github.com/rungjoo/plug-and-play-prompt-persona}で入手できる。
関連論文リスト
- First-Person Fairness in Chatbots [13.787745105316043]
ユーザに対する公平さを意味する「ファースト・パーソナライズ・フェアネス」について検討する。
これには、アイデンティティやバックグラウンドに関わらず、すべてのユーザに高品質なレスポンスを提供することが含まれる。
本稿では,一人称フェアネスの1つの側面を評価するための,スケーラブルなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T17:59:47Z) - Personalized Language Modeling from Personalized Human Feedback [49.344833339240566]
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)は、人間の好みに合わせて大きな言語モデルを微調整するために一般的に用いられる。
本研究では,パーソナライズされた言語モデルを構築する手法を開発することにより,この問題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - UltraFeedback: Boosting Language Models with Scaled AI Feedback [99.4633351133207]
大規模で高品質で多様なAIフィードバックデータセットである textscUltraFeedback を提示する。
我々の研究は、強力なオープンソースのチャット言語モデルを構築する上で、スケールしたAIフィードバックデータの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-02T17:40:01Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z) - Improving Personality Consistency in Conversation by Persona Extending [22.124187337032946]
本稿では,Persona Retrieval Model(PRM)とPosterior-Scored Transformer(PS-Transformer)の2つのサブコンポーネントからなる新しい検索・予測パラダイムを提案する。
提案モデルでは,自動測定と人的評価の両面で大幅に改善されている。
論文 参考訳(メタデータ) (2022-08-23T09:00:58Z) - Learning Implicit User Profiles for Personalized Retrieval-Based Chatbot [29.053654530024083]
IMPChatは、ユーザのパーソナライズされた言語スタイルとパーソナライズされた好みを個別にモデリングすることで、暗黙のユーザプロファイルを学習することを目的としている。
ユーザのパーソナライズされた言語スタイルを学習するために,ユーザの過去の応答を利用して,浅い言語から深い言語モデルを構築する。
回答候補をそれぞれパーソナライズされた言語スタイルとパーソナライズされた好みとでマッチングし、2つのマッチング信号を融合して最終的なランキングスコアを決定する。
論文 参考訳(メタデータ) (2021-08-18T02:07:28Z) - Partner Matters! An Empirical Study on Fusing Personas for Personalized
Response Selection in Retrieval-Based Chatbots [51.091235903442715]
本稿では,自己とパートナーの話者が応答選択の課題に与える影響について検討する。
4つのペルソナ融合戦略が設計されており、異なる方法でペルソナがコンテキストや応答と相互作用することを前提としている。
Persona-Chatデータセットに関する実証研究は、パートナーペルソナが応答選択の精度を向上させることができることを示している。
論文 参考訳(メタデータ) (2021-05-19T10:32:30Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Learning Improvised Chatbots from Adversarial Modifications of Natural
Language Feedback [19.026954124876582]
本稿では,雑音フィードバックを会話中の自然な応答に変換する生成逆モデルを提案する。
ジェネレータの目標は、ユーザの以前の発話に応答する応答にフィードバックを変換し、差別者を騙すことである。
論文 参考訳(メタデータ) (2020-10-14T17:33:37Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。