論文の概要: Knowledge-grounded Dialog State Tracking
- arxiv url: http://arxiv.org/abs/2210.06656v1
- Date: Thu, 13 Oct 2022 01:34:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 15:42:34.108129
- Title: Knowledge-grounded Dialog State Tracking
- Title(参考訳): 知識接地型対話状態追跡
- Authors: Dian Yu, Mingqiu Wang, Yuan Cao, Izhak Shafran, Laurent El Shafey,
Hagen Soltau
- Abstract要約: 我々は,外部に符号化された知識に基づいて,対話状態の追跡を行う。
ダイアログのコンテキストに基づいて,様々な形態の関連知識を問い合わせる。
提案手法の強塩基性よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 12.585986197627477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge (including structured knowledge such as schema and ontology, and
unstructured knowledge such as web corpus) is a critical part of dialog
understanding, especially for unseen tasks and domains. Traditionally, such
domain-specific knowledge is encoded implicitly into model parameters for the
execution of downstream tasks, which makes training inefficient. In addition,
such models are not easily transferable to new tasks with different schemas. In
this work, we propose to perform dialog state tracking grounded on knowledge
encoded externally. We query relevant knowledge of various forms based on the
dialog context where such information can ground the prediction of dialog
states. We demonstrate superior performance of our proposed method over strong
baselines, especially in the few-shot learning setting.
- Abstract(参考訳): 知識(スキーマやオントロジーなどの構造化知識、Webコーパスのような構造化されていない知識を含む)は、特に目に見えないタスクやドメインに対する対話理解の重要な部分である。
伝統的に、そのようなドメイン固有の知識は、下流タスクの実行のためのモデルパラメータに暗黙的にエンコードされる。
さらに、そのようなモデルは、異なるスキーマを持つ新しいタスクに簡単に転送できない。
本研究では,外部エンコードされた知識に基づく対話状態追跡を行う。
我々は,このような情報が対話状態の予測の基礎となるダイアログコンテキストに基づいて,様々な形式の関連知識を問い合わせる。
提案手法は,特にマイトショット学習環境では,強力なベースラインよりも優れた性能を示す。
関連論文リスト
- Bridging Information Gaps in Dialogues With Grounded Exchanges Using Knowledge Graphs [4.449835214520727]
対話的接地のための大規模言語モデルの可能性について検討する。
私たちのアプローチでは、5つの知識領域にまたがる人間の会話を注釈付けして、BridgeKGと呼ばれる対話コーパスを作成します。
本研究は,これらのモデルが会話ベースタスクや一般的な予測誤りに対して,コンテキスト内学習をどのように利用するかについての知見を提供する。
論文 参考訳(メタデータ) (2024-08-02T08:07:15Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - PK-Chat: Pointer Network Guided Knowledge Driven Generative Dialogue
Model [79.64376762489164]
PK-Chatは、知識グラフ上のポインタネットワークと、事前訓練された言語モデルを組み合わせた、ポインタネットワーク誘導生成対話モデルである。
PK-Chatが対話で生成した単語は、単語リストの予測と外部知識グラフ知識の直接予測から導かれる。
PK-Chatに基づく対話システムは、地球科学の学術シナリオ向けに構築されている。
論文 参考訳(メタデータ) (2023-04-02T18:23:13Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning [7.5700317050237365]
対話状態追跡(DST)のための一般化可能なインコンテキストチューニング手法であるDiSTRICTを提案する。
DSTRICTは、手作りのテンプレートを使わずにモデルを微調整するために、与えられた対話のための非常に関連性の高いトレーニング例を検索する。
MultiWOZベンチマークデータセットによる実験では、DiSTRICTは、さまざまなゼロショットおよび少数ショット設定において、既存のアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-12-06T09:40:15Z) - CGoDial: A Large-Scale Benchmark for Chinese Goal-oriented Dialog
Evaluation [75.60156479374416]
CGoDialは、Goal指向のダイアログ評価のための、新しい挑戦的で包括的な中国のベンチマークである。
96,763のダイアログセッションと574,949のダイアログがすべて含まれており、異なる知識ソースを持つ3つのデータセットをカバーする。
学術ベンチマークと音声対話のシナリオのギャップを埋めるために、実際の会話からデータを収集したり、クラウドソーシングを通じて既存のデータセットに音声機能を追加する。
論文 参考訳(メタデータ) (2022-11-21T16:21:41Z) - Lexical Knowledge Internalization for Neural Dialog Generation [36.27946635687281]
本稿では,語彙的知識をニューラルダイアログモデルに補完することを目的とした知識内在化(KI)を提案する。
語彙知識の大規模化による課題に対処するため,コントラスト学習アプローチを採用し,トークンレベルの語彙知識検索を効果的に行う。
論文 参考訳(メタデータ) (2022-05-04T08:23:44Z) - DialoKG: Knowledge-Structure Aware Task-Oriented Dialogue Generation [9.186215038100904]
本稿では,言語モデルに知識を効果的に組み込んだタスク指向対話システムであるDialoKGを提案する。
提案システムでは,リレーショナル知識を知識グラフとみなし,構造認識型知識埋め込み技術を導入する。
実験的な評価は、いくつかの標準ベンチマークデータセットにおける最先端手法に対するDialoKGの有効性を示す。
論文 参考訳(メタデータ) (2022-04-19T22:26:18Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded
Dialogue Generation [0.9926500244448218]
本稿では,大規模アングラウンド対話と非構造化知識に基づく弱教師付き学習に基づく新しい3段階学習フレームワークを提案する。
我々のアプローチは、トレーニングデータが少なくて最先端のメソッドよりも優れており、ゼロリソースのシナリオであっても、我々のアプローチは依然としてうまく機能します。
論文 参考訳(メタデータ) (2021-09-09T08:32:02Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。