論文の概要: Generating Personalized Dialogue via Multi-Task Meta-Learning
- arxiv url: http://arxiv.org/abs/2108.03377v1
- Date: Sat, 7 Aug 2021 06:38:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 03:10:00.996734
- Title: Generating Personalized Dialogue via Multi-Task Meta-Learning
- Title(参考訳): マルチタスクメタラーニングによるパーソナライズド対話の生成
- Authors: Jing Yang Lee, Kong Aik Lee, Woon Seng Gan
- Abstract要約: パーソナライズされた対話生成のための新しいマルチタスクメタ学習手法を提案する。
モデルは対話コンテキストのみに基づいてパーソナライズされた応答を生成する。
提案するマルチタスクメタ学習アプローチを採用する2つのフレームワークを紹介する。
- 参考スコア(独自算出の注目度): 28.721411816698563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional approaches to personalized dialogue generation typically require
a large corpus, as well as predefined persona information. However, in a
real-world setting, neither a large corpus of training data nor persona
information are readily available. To address these practical limitations, we
propose a novel multi-task meta-learning approach which involves training a
model to adapt to new personas without relying on a large corpus, or on any
predefined persona information. Instead, the model is tasked with generating
personalized responses based on only the dialogue context. Unlike prior work,
our approach leverages on the provided persona information only during training
via the introduction of an auxiliary persona reconstruction task. In this
paper, we introduce 2 frameworks that adopt the proposed multi-task
meta-learning approach: the Multi-Task Meta-Learning (MTML) framework, and the
Alternating Multi-Task Meta-Learning (AMTML) framework. Experimental results
show that utilizing MTML and AMTML results in dialogue responses with greater
persona consistency.
- Abstract(参考訳): パーソナライズされた対話生成に対する従来のアプローチは、一般的に大きなコーパスと事前に定義されたペルソナ情報を必要とする。
しかし、実世界の環境では、大量のトレーニングデータのコーパスやペルソナ情報を容易に利用できない。
このような現実的な制約に対処するために,大規模なコーパスや事前定義されたペルソナ情報に頼ることなく,新たなペルソナに適応するためのモデルをトレーニングする,新しいマルチタスクメタ学習手法を提案する。
代わりに、モデルは対話コンテキストのみに基づいてパーソナライズされた応答を生成することをタスクとする。
先行研究と異なり,本手法では訓練中にのみ提供されたペルソナ情報を活用し,補助ペルソナ再構築タスクを導入する。
本稿では,マルチタスクメタラーニング(MTML)フレームワークと,代替マルチタスクメタラーニング(AMTML)フレームワークという,マルチタスクメタラーニング手法を採用する2つのフレームワークを紹介する。
実験の結果,MTMLとAMTMLを併用すると,対人関係が向上することがわかった。
関連論文リスト
- Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - DialCLIP: Empowering CLIP as Multi-Modal Dialog Retriever [83.33209603041013]
マルチモーダルダイアログ検索のためのパラメータ効率の高いプロンプトチューニング手法であるDialCLIPを提案する。
提案手法では,事前学習された視覚言語モデルCLIP内のプロンプトに抽出された文脈特徴を学習するためのマルチモーダルコンテキスト生成手法を提案する。
様々なタイプの検索を容易にするために,CLIP出力からマルチモーダル表現空間へのマッピングを学習するために,複数の専門家を設計する。
論文 参考訳(メタデータ) (2024-01-02T07:40:12Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Multitask Multimodal Prompted Training for Interactive Embodied Task
Completion [48.69347134411864]
Embodied MultiModal Agent (EMMA) はエンコーダとデコーダの統一モデルである。
すべてのタスクをテキスト生成として統一することで、EMMAはタスク間の転送を容易にするアクション言語を学ぶ。
論文 参考訳(メタデータ) (2023-11-07T15:27:52Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Meta Learning to Bridge Vision and Language Models for Multimodal
Few-Shot Learning [38.37682598345653]
視覚モデルと言語モデルとのギャップを埋めるために,マルチモーダルなメタ学習手法を導入する。
我々は,凍結した大規模視覚と言語モデルを効率的にブリッジするためにメタラーナーとして機能するメタマッパーネットワークを定義する。
我々は,最近提案されたマルチモーダル・スショット・ベンチマークに対するアプローチを評価し,新しい視覚概念を単語に結合する速度を計測した。
論文 参考訳(メタデータ) (2023-02-28T17:46:18Z) - Forging Multiple Training Objectives for Pre-trained Language Models via
Meta-Learning [97.28779163988833]
複数の事前学習目標が単一目的言語モデリングの理解能力の欠如を埋める。
メタラーニングに基づく新しい適応型サンプリングシステムであるtextitMOMETAS を提案し,任意の事前学習対象に対して潜時サンプリングパターンを学習する。
論文 参考訳(メタデータ) (2022-10-19T04:38:26Z) - "Think Before You Speak": Improving Multi-Action Dialog Policy by
Planning Single-Action Dialogs [33.78889030078026]
マルチアクションダイアログポリシー(MADP)は、ターンごとに複数のアトミックダイアログアクションを生成する。
シングルアクションダイアログダイナミクスを学習する新しいマルチタスク学習フレームワークであるPlanning Enhanced Dialog Policy (PEDP)を提案する。
完全教師付き学習ベース手法は, タスク成功率90.6%を達成し, 最先端の手法に比べて3%向上した。
論文 参考訳(メタデータ) (2022-04-25T07:55:53Z) - Representation Learning for Conversational Data using Discourse Mutual
Information Maximization [9.017156603976915]
構造を意識しない単語・バイ・ワード生成は効果的な会話モデリングには適さないと我々は主張する。
対話表現モデルの学習のための構造認識型相互情報に基づく損失関数DMIを提案する。
本モデルでは,対話評価タスクであるDailyDialog++において,ランダムな負のシナリオと逆のシナリオの両方において,最も有望な性能を示す。
論文 参考訳(メタデータ) (2021-12-04T13:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。