論文の概要: A Unified Multi-task Learning Framework for Multi-goal Conversational
Recommender Systems
- arxiv url: http://arxiv.org/abs/2204.06923v1
- Date: Thu, 14 Apr 2022 12:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 19:37:51.247403
- Title: A Unified Multi-task Learning Framework for Multi-goal Conversational
Recommender Systems
- Title(参考訳): 対話型推薦システムのための統合型マルチタスク学習フレームワーク
- Authors: Yang Deng, Wenxuan Zhang, Weiwen Xu, Wenqiang Lei, Tat-Seng Chua, Wai
Lam
- Abstract要約: MG-CRSには、ゴールプランニング、トピック予測、アイテムレコメンデーション、レスポンスジェネレーションの4つのタスクがある。
我々は,Unified MultI-goal conversational recommeNDerシステム,すなわちUniMINDを提案する。
マルチタスク学習能力を備えた統一モデルを実現するために,プロンプトに基づく学習戦略を検討した。
- 参考スコア(独自算出の注目度): 91.70511776167488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years witnessed several advances in developing multi-goal
conversational recommender systems (MG-CRS) that can proactively attract users'
interests and naturally lead user-engaged dialogues with multiple
conversational goals and diverse topics. Four tasks are often involved in
MG-CRS, including Goal Planning, Topic Prediction, Item Recommendation, and
Response Generation. Most existing studies address only some of these tasks. To
handle the whole problem of MG-CRS, modularized frameworks are adopted where
each task is tackled independently without considering their interdependencies.
In this work, we propose a novel Unified MultI-goal conversational recommeNDer
system, namely UniMIND. In specific, we unify these four tasks with different
formulations into the same sequence-to-sequence (Seq2Seq) paradigm.
Prompt-based learning strategies are investigated to endow the unified model
with the capability of multi-task learning. Finally, the overall learning and
inference procedure consists of three stages, including multi-task learning,
prompt-based tuning, and inference. Experimental results on two MG-CRS
benchmarks (DuRecDial and TG-ReDial) show that UniMIND achieves
state-of-the-art performance on all tasks with a unified model. Extensive
analyses and discussions are provided for shedding some new perspectives for
MG-CRS.
- Abstract(参考訳): 近年,多言語対話型レコメンデーションシステム(mg-crs)の開発が進み,ユーザの興味を積極的に惹きつけるとともに,複数の会話目標と多様な話題を持つユーザインタラクションを自然にリードしている。
mg-crsには,目標計画,トピック予測,項目推薦,応答生成といった4つのタスクが関与することが多い。
既存の研究はこれらの課題のいくつかにのみ対処している。
MG-CRSの全体的な問題に対処するため、各タスクが相互依存を考慮せずに独立して取り組まれるモジュール化されたフレームワークが採用されている。
本研究では,Unified MultI-goal conversational recommeNDerシステム,すなわちUniMINDを提案する。
具体的には、これらの4つのタスクを異なる定式化で同じシーケンス対シーケンス(Seq2Seq)パラダイムに統一する。
プロンプトベースの学習戦略について検討し,マルチタスク学習の能力を統一モデルに付与する。
最後に、全体的な学習と推論手順は、マルチタスク学習、プロンプトベースのチューニング、推論を含む3つの段階からなる。
2つのMG-CRSベンチマーク(DuRecDialとTG-ReDial)の実験結果から、UniMINDは統一されたモデルで全てのタスクで最先端のパフォーマンスを達成することが示された。
MG-CRSの新しい視点を包括的に分析し,議論する。
関連論文リスト
- MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning [7.822825134714791]
多目的多エージェント強化学習(MOMARL)は、学習プロセスにおいて複数の目的を考慮する必要がある複数のエージェントによる問題に対処する。
MOAlandは、多目的マルチエージェント強化学習のための標準化された環境の最初のコレクションである。
論文 参考訳(メタデータ) (2024-07-23T09:05:06Z) - UniMS-RAG: A Unified Multi-source Retrieval-Augmented Generation for Personalized Dialogue Systems [43.266153244137215]
大規模言語モデル(LLM)は多くの自然言語理解および生成タスクにおいて例外的な機能を示している。
我々は、パーソナライズされた応答を3つのサブタスク(知識ソース選択、知識検索、応答生成)に分解する。
統一多ソース検索拡張生成システム(UniMS-RAG)を提案する。
論文 参考訳(メタデータ) (2024-01-24T06:50:20Z) - MmAP : Multi-modal Alignment Prompt for Cross-domain Multi-task Learning [29.88567810099265]
マルチタスク学習は複数の相関タスクを同時に訓練するように設計されている。
この課題に対処するために、デコーダフリーの視覚言語モデルCLIPを統合する。
CLIPのためのマルチモーダルアライメント・プロンプト(MmAP)を提案する。
論文 参考訳(メタデータ) (2023-12-14T03:33:02Z) - Multitask Multimodal Prompted Training for Interactive Embodied Task
Completion [48.69347134411864]
Embodied MultiModal Agent (EMMA) はエンコーダとデコーダの統一モデルである。
すべてのタスクをテキスト生成として統一することで、EMMAはタスク間の転送を容易にするアクション言語を学ぶ。
論文 参考訳(メタデータ) (2023-11-07T15:27:52Z) - Revisiting Disentanglement and Fusion on Modality and Context in
Conversational Multimodal Emotion Recognition [81.2011058113579]
特徴の多様性と会話の文脈化は、特徴の絡み合いと融合の段階において、同時に適切にモデル化されるべきである。
マルチモーダル・コンテキスト統合のためのコントリビューション・アウェア・フュージョン・メカニズム(CFM)とコンテキスト・リフュージョン・メカニズム(CRM)を提案する。
我々のシステムは、新しい最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2023-08-08T18:11:27Z) - UniDU: Towards A Unified Generative Dialogue Understanding Framework [62.8474841241855]
DUタスク間の情報交換を実現するために,統合された生成対話理解フレームワークであるUniDUについて検討する。
我々は,5つの基本課題にまたがる10の対話理解データセットの実験を行う。
提案したUniDUフレームワークは5つのタスクすべてにおいてタスク固有のよく設計されたメソッドよりも優れている。
論文 参考訳(メタデータ) (2022-04-10T09:32:34Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。