論文の概要: Fine-Tuning BERT for Schema-Guided Zero-Shot Dialogue State Tracking
- arxiv url: http://arxiv.org/abs/2002.00181v1
- Date: Sat, 1 Feb 2020 10:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:55:05.763709
- Title: Fine-Tuning BERT for Schema-Guided Zero-Shot Dialogue State Tracking
- Title(参考訳): スキーマ誘導ゼロショット対話状態追跡のための微調整BERT
- Authors: Yu-Ping Ruan, Zhen-Hua Ling, Jia-Chen Gu, Quan Liu
- Abstract要約: 本稿では,最多の事前学習言語モデルであるBERTの微調整によるゼロショット対話状態追跡(SGP-DST)のためのスキーマ誘導パラダイムを提案する。
SGP-DSTシステムは、意図予測、スロット予測、スロット転送予測、ユーザ状態要約の4つのモジュールを含む。
- 参考スコア(独自算出の注目度): 43.20734753882626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present our work on Track 4 in the Dialogue System Technology Challenges 8
(DSTC8). The DSTC8-Track 4 aims to perform dialogue state tracking (DST) under
the zero-shot settings, in which the model needs to generalize on unseen
service APIs given a schema definition of these target APIs. Serving as the
core for many virtual assistants such as Siri, Alexa, and Google Assistant, the
DST keeps track of the user's goal and what happened in the dialogue history,
mainly including intent prediction, slot filling, and user state tracking,
which tests models' ability of natural language understanding. Recently, the
pretrained language models have achieved state-of-the-art results and shown
impressive generalization ability on various NLP tasks, which provide a
promising way to perform zero-shot learning for language understanding. Based
on this, we propose a schema-guided paradigm for zero-shot dialogue state
tracking (SGP-DST) by fine-tuning BERT, one of the most popular pretrained
language models. The SGP-DST system contains four modules for intent
prediction, slot prediction, slot transfer prediction, and user state
summarizing respectively. According to the official evaluation results, our
SGP-DST (team12) ranked 3rd on the joint goal accuracy (primary evaluation
metric for ranking submissions) and 1st on the requsted slots F1 among 25
participant teams.
- Abstract(参考訳): 本稿では,対話システム技術チャレンジ8(dstc8)におけるトラック4について述べる。
DSTC8-Track 4は、ゼロショット設定下で対話状態追跡(DST)を実行することを目的としている。
Siri、Alexa、Google Assistantなどの多くのバーチャルアシスタントのコアとして機能し、DSTはユーザーの目標と、主に自然言語理解のモデルの能力をテストする意図予測、スロットフィリング、ユーザ状態トラッキングを含む対話履歴で起きたことを追跡する。
近年、事前訓練された言語モデルは、最先端の結果を達成し、様々なNLPタスクにおける印象的な一般化能力を示した。
そこで本研究では,最多の事前学習言語モデルであるBERTによるゼロショット対話状態追跡(SGP-DST)のためのスキーマ誘導パラダイムを提案する。
SGP-DSTシステムは、インテント予測、スロット予測、スロット転送予測、ユーザ状態要約の4つのモジュールを含む。
公式評価結果によると,sgp-dst (team12) は,25チーム中,共同ゴール精度 (ランキング評価基準) で3位,再計算スロットf1で1位にランクインした。
関連論文リスト
- Large Language Models as Zero-shot Dialogue State Tracker through Function Calling [42.00097476584174]
本稿では,大言語モデル(LLM)を用いた対話状態追跡の関数呼び出しによる解法を提案する。
この方法はゼロショットDSTを改善し、広範囲のデータ収集やモデルチューニングなしに多様なドメインに適応できる。
提案手法は,オープン・ソースとプロプライエタリ・LLMの両面において,極めて優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-02-16T06:13:18Z) - ChatGPT for Zero-shot Dialogue State Tracking: A Solution or an
Opportunity? [2.3555053092246125]
本研究は,ChatGPTがゼロショットDSTにおける最先端性能を達成することを実証した,ChatGPT研究プレビューの予備実験結果を示す。
このようなモデルのコンテキスト内学習能力は、専用および動的対話状態トラッカーの開発を支援する強力なツールになりそうである。
論文 参考訳(メタデータ) (2023-06-02T09:15:01Z) - Cross-Lingual Dialogue Dataset Creation via Outline-Based Generation [70.81596088969378]
言語間アウトラインに基づく対話データセット(COD)は、自然言語の理解を可能にする。
CODは、4つの異なる言語で対話状態の追跡とエンドツーエンドの対話モデリングと評価を可能にする。
論文 参考訳(メタデータ) (2022-01-31T18:11:21Z) - Prompt Learning for Few-Shot Dialogue State Tracking [75.50701890035154]
本稿では,限られたラベル付きデータを用いて,対話状態追跡(DST)モデルを効率的に学習する方法に焦点を当てる。
本稿では,2つの主要なコンポーネントである値ベースプロンプトと逆プロンプト機構からなる,数ショットDSTのためのプロンプト学習フレームワークを設計する。
実験により、我々のモデルは未確認のスロットを生成し、既存の最先端の数ショット法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:37:33Z) - Zero-shot Generalization in Dialog State Tracking through Generative
Question Answering [10.81203437307028]
本稿では,タスク指向ダイアログの制約やスロットに対する自然言語クエリをサポートする新しいフレームワークを提案する。
本手法は,英語文に事前学習した条件付きドメインモデルを用いた生成的質問応答に基づく。
論文 参考訳(メタデータ) (2021-01-20T21:47:20Z) - CREDIT: Coarse-to-Fine Sequence Generation for Dialogue State Tracking [44.38388988238695]
対話状態トラッカーは、現在の対話状態のコンパクトな表現を正確に見つけることを目的としている。
我々はシーケンス生成問題として構造化状態表現とキャスト対話状態追跡を用いる。
我々のトラッカーは,MultiWOZ 2.0とMultiWOZ 2.1データセットの5つの領域で共同目標精度を向上することを示した。
論文 参考訳(メタデータ) (2020-09-22T10:27:18Z) - Language Models as Few-Shot Learner for Task-Oriented Dialogue Systems [74.8759568242933]
タスク指向対話システムは、自然言語理解(NLU)、対話状態追跡(DST)、対話ポリシー(DP)、自然言語生成(NLG)の4つの連結モジュールを使用する。
研究課題は、データ収集に関連する高コストから最小限のサンプルで各モジュールを学習することである。
我々は,NLU,DP,NLGタスクにおいて,言語モデルの素小ショット能力を評価する。
論文 参考訳(メタデータ) (2020-08-14T08:23:21Z) - A Simple Language Model for Task-Oriented Dialogue [61.84084939472287]
SimpleTODはタスク指向対話に対する単純なアプローチであり、すべてのサブタスクのリキャストで訓練された単一因果言語モデルを単一シーケンス予測問題として利用する。
これによりSimpleTODは、事前訓練されたオープンドメイン、GPT-2のような因果言語モデルからのトランスファー学習を完全に活用できる。
論文 参考訳(メタデータ) (2020-05-02T11:09:27Z) - Few-shot Natural Language Generation for Task-Oriented Dialog [113.07438787659859]
FewShotWozは,タスク指向対話システムにおける数ショットの学習設定をシミュレートする最初の NLG ベンチマークである。
我々は, SC-GPTモデルを開発し, その制御可能な生成能力を得るために, 注釈付きNLGコーパスの大規模なセットで事前学習を行った。
FewShotWozとMulti-Domain-WOZデータセットの実験は、提案したSC-GPTが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-27T18:48:33Z) - Goal-Oriented Multi-Task BERT-Based Dialogue State Tracker [0.1864131501304829]
State Tracking(DST)は、AlexaやSiriなどの仮想アシスタントの中核的なコンポーネントである。
本研究では,GOaL指向マルチタスクBERTベースの対話状態トラッカー(GOLOMB)を提案する。
論文 参考訳(メタデータ) (2020-02-05T22:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。