論文の概要: Multi-Task Learning for Situated Multi-Domain End-to-End Dialogue
Systems
- arxiv url: http://arxiv.org/abs/2110.05221v1
- Date: Mon, 11 Oct 2021 12:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 18:22:26.681424
- Title: Multi-Task Learning for Situated Multi-Domain End-to-End Dialogue
Systems
- Title(参考訳): 多目的対話システムのためのマルチタスク学習
- Authors: Po-Nien Kung, Chung-Cheng Chang, Tse-Hsuan Yang, Hsin-Kai Hsu, Yu-Jia
Liou, Yun-Nung Chen
- Abstract要約: 我々はマルチタスク学習技術を利用して、より困難なデータセットに基づいてGPT-2ベースのモデルをトレーニングする。
本手法は,タスクやドメイン固有のモデルと比較して,すべてのサブタスクにおいて,ドメイン間のパフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 21.55075825370981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task-oriented dialogue systems have been a promising area in the NLP field.
Previous work showed the effectiveness of using a single GPT-2 based model to
predict belief states and responses via causal language modeling. In this
paper, we leverage multi-task learning techniques to train a GPT-2 based model
on a more challenging dataset with multiple domains, multiple modalities, and
more diversity in output formats.
Using only a single model, our method achieves better performance on all
sub-tasks, across domains, compared to task and domain-specific models.
Furthermore, we evaluated several proposed strategies for GPT-2 based dialogue
systems with comprehensive ablation studies, showing that all techniques can
further improve the performance.
- Abstract(参考訳): タスク指向対話システムは,NLP分野において有望な領域である。
これまでの研究は、単一のGPT-2モデルを用いて、因果言語モデリングによる信念状態と応答を予測することの有効性を示した。
本稿では,マルチタスク学習手法を用いて,複数のドメイン,複数のモダリティ,出力フォーマットの多様性を備えた,より困難なデータセットに基づいてgpt-2ベースのモデルを学習する。
一つのモデルのみを用いることで、タスクやドメイン固有のモデルと比較して、ドメイン間の全てのサブタスクのパフォーマンスが向上する。
さらに, GPT-2に基づく対話システムにおいて, 包括的アブレーション研究による提案手法の評価を行い, 全ての手法が性能を向上できることを示した。
関連論文リスト
- M$^2$PT: Multimodal Prompt Tuning for Zero-shot Instruction Learning [90.75075886543404]
MLLM(Multimodal Large Language Models)は、幅広い領域にわたる顕著なパフォーマンスを示す。
本研究では,MLLMの効率的な命令チューニングのための新しいMultimodal Prompt Tuning (M$2$PT) 手法を提案する。
論文 参考訳(メタデータ) (2024-09-24T01:40:24Z) - DialCLIP: Empowering CLIP as Multi-Modal Dialog Retriever [83.33209603041013]
マルチモーダルダイアログ検索のためのパラメータ効率の高いプロンプトチューニング手法であるDialCLIPを提案する。
提案手法では,事前学習された視覚言語モデルCLIP内のプロンプトに抽出された文脈特徴を学習するためのマルチモーダルコンテキスト生成手法を提案する。
様々なタイプの検索を容易にするために,CLIP出力からマルチモーダル表現空間へのマッピングを学習するために,複数の専門家を設計する。
論文 参考訳(メタデータ) (2024-01-02T07:40:12Z) - Multitask Multimodal Prompted Training for Interactive Embodied Task
Completion [48.69347134411864]
Embodied MultiModal Agent (EMMA) はエンコーダとデコーダの統一モデルである。
すべてのタスクをテキスト生成として統一することで、EMMAはタスク間の転送を容易にするアクション言語を学ぶ。
論文 参考訳(メタデータ) (2023-11-07T15:27:52Z) - Multi-Stage Pre-training Enhanced by ChatGPT for Multi-Scenario
Multi-Domain Dialogue Summarization [20.60018442168502]
マルチシナリオ・マルチドメイン・ダイアログの要約に特化して設計された,事前学習型モデルを提案する。
事前学習目標と微調整目標とのギャップを減らすために、多段階事前学習戦略を採用する。
論文 参考訳(メタデータ) (2023-10-16T11:16:07Z) - Application of frozen large-scale models to multimodal task-oriented
dialogue [0.0]
既存のLarge Language Models ENnhanced to See Framework(LENS Framework)を使用して、マルチモーダルタスク指向対話の実現可能性をテストする。
LENS Frameworkは、追加のトレーニングや事前訓練されたモデルの固定パラメータなしでコンピュータビジョンタスクを解く方法として提案されている。
論文 参考訳(メタデータ) (2023-10-02T01:42:28Z) - Multi-View Zero-Shot Open Intent Induction from Dialogues: Multi Domain
Batch and Proxy Gradient Transfer [16.804434185847363]
タスク指向対話(TOD)システムでは,新たな意図の検出と誘導が,実世界でシステムを適用する上で大きな課題である。
これら2つの課題を解決するために,セマンティック・マルチビュー・モデルを提案する。
本稿では,クラスタリング手法を用いてモデルを微調整するために,Siameseネットワークを用いた新しいPGTを提案する。
論文 参考訳(メタデータ) (2023-03-23T08:30:35Z) - A Multi-Task BERT Model for Schema-Guided Dialogue State Tracking [78.2700757742992]
タスク指向対話システムは対話状態追跡器(DST)を用いて会話を完了させる。
最近の最先端のDST実装は、モデルの堅牢性を改善するために様々なサービスのスキーマに依存している。
本稿では,意図予測,要求スロット予測,スロットフィリングの3つのDSTタスクを協調的に解決する単一マルチタスクBERTモデルを提案する。
論文 参考訳(メタデータ) (2022-07-02T13:27:59Z) - Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System [26.837972034630003]
PPTODはタスク指向対話のための統一的なプラグアンドプレイモデルである。
エンド・ツー・エンドの対話モデル、対話状態追跡、意図分類を含む3つのベンチマークTODタスクにおいて、我々のモデルを広範囲にテストする。
論文 参考訳(メタデータ) (2021-09-29T22:02:18Z) - Variational Latent-State GPT for Semi-supervised Task-Oriented Dialog
Systems [24.667353107453824]
変分潜在状態GPTモデル(VLS-GPT)は2つのアプローチの強みを組み合わせた最初のモデルである。
我々は,GPTを変分学習に使用する際のメモリ爆発問題を克服する,サンプリング-then-forward-computationの戦略を開発した。
VLS-GPTは、教師のみのベースラインと半教師付きベースラインの両方で著しく優れていた。
論文 参考訳(メタデータ) (2021-09-09T14:42:29Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - Hybrid Generative-Retrieval Transformers for Dialogue Domain Adaptation [77.62366712130196]
マルチドメイン MetaLWOz データセットに微調整した GPT-2 に基づくハイブリッド生成・検索モデル DSTC8 の高速領域適応タスクにおける入賞条件について述べる。
提案モデルでは,MetaLWOz上の解析論理をフォールバックとして使用し,人間の評価におけるSoTA(第2位システムよりも4%向上)と,未知のMultiWOZデータセットに適応した競合一般化性能を実現する。
論文 参考訳(メタデータ) (2020-03-03T18:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。