論文の概要: Logical Reasoning for Task Oriented Dialogue Systems
- arxiv url: http://arxiv.org/abs/2202.04161v1
- Date: Tue, 8 Feb 2022 21:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 04:55:53.168766
- Title: Logical Reasoning for Task Oriented Dialogue Systems
- Title(参考訳): タスク指向対話システムのための論理推論
- Authors: Sajjad Beygi, Maryam Fazel-Zarandi, Alessandra Cervone, Prakash
Krishnan, Siddhartha Reddy Jonnalagadda
- Abstract要約: 本稿では,ロバータやT5などの変圧器モデルに対して,与えられた対話コンテキストにおける事実の集合を推論する新しい手法を提案する。
本手法は,モデルが論理関係を学習するのに役立つ合成データ生成機構を含む。
対話コンテキストが全ての必要な情報を含む場合、変換器に基づくモデルが論理的推論を行い、質問に答えることを示す。
- 参考スコア(独自算出の注目度): 57.440956636333325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, large pretrained models have been used in dialogue systems
to improve successful task completion rates. However, lack of reasoning
capabilities of dialogue platforms make it difficult to provide relevant and
fluent responses, unless the designers of a conversational experience spend a
considerable amount of time implementing these capabilities in external rule
based modules. In this work, we propose a novel method to fine-tune pretrained
transformer models such as Roberta and T5. to reason over a set of facts in a
given dialogue context. Our method includes a synthetic data generation
mechanism which helps the model learn logical relations, such as comparison
between list of numerical values, inverse relations (and negation), inclusion
and exclusion for categorical attributes, and application of a combination of
attributes over both numerical and categorical values, and spoken form for
numerical values, without need for additional training dataset. We show that
the transformer based model can perform logical reasoning to answer questions
when the dialogue context contains all the required information, otherwise it
is able to extract appropriate constraints to pass to downstream components
(e.g. a knowledge base) when partial information is available. We observe that
transformer based models such as UnifiedQA-T5 can be fine-tuned to perform
logical reasoning (such as numerical and categorical attributes' comparison)
over attributes that been seen in training time (e.g., accuracy of 90\%+ for
comparison of smaller than $k_{\max}$=5 values over heldout test dataset).
- Abstract(参考訳): 近年,タスク完了率の向上のために,対話システムにおいて大規模な事前訓練モデルが用いられている。
しかし、対話プラットフォームにおける推論能力の欠如は、対話体験のデザイナーが外部ルールベースのモジュールでこれらの機能を実装するのにかなりの時間を費やしない限り、関連性があり流動的な応答を提供するのを難しくする。
本研究では,ロバータやT5といった事前学習型トランスモデルを微調整する新しい手法を提案する。
所定の対話コンテキストにおいて、一連の事実を推論する。
本手法は、数値のリスト、逆関係(および否定)、カテゴリー属性の包含と排除、数値値とカテゴリ値の両方に対する属性の組み合わせの適用、さらに、追加のトレーニングデータセットを必要とせず、数値値のための音声形式など、モデルが論理関係を学習するのに役立つ合成データ生成機構を含む。
変換器に基づくモデルでは,対話コンテキストがすべての必要な情報を含む場合,論理的推論を行い,その場合,部分的な情報が利用可能であれば,下流のコンポーネント(例えば知識ベース)に渡すための適切な制約を抽出できることを示す。
我々は、UnifiedQA-T5のようなトランスフォーマーベースのモデルが、トレーニング時間で見られた属性(例えば、$k_{\max}$=5の値と比較した場合、90\%+の精度)に対して論理的推論(数値的および分類的属性の比較など)を行うように微調整可能であることを観察する。
関連論文リスト
- Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - CGoDial: A Large-Scale Benchmark for Chinese Goal-oriented Dialog
Evaluation [75.60156479374416]
CGoDialは、Goal指向のダイアログ評価のための、新しい挑戦的で包括的な中国のベンチマークである。
96,763のダイアログセッションと574,949のダイアログがすべて含まれており、異なる知識ソースを持つ3つのデータセットをカバーする。
学術ベンチマークと音声対話のシナリオのギャップを埋めるために、実際の会話からデータを収集したり、クラウドソーシングを通じて既存のデータセットに音声機能を追加する。
論文 参考訳(メタデータ) (2022-11-21T16:21:41Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - Prompting for a conversation: How to control a dialog model? [9.268682116424518]
ダイアログモデルは大量のテキストでトレーニングされるが、その応答はダイアログエージェントの望ましいスコープとスタイルに制限される必要がある。
前者を達成するために使用されるデータセットには後者と互換性のない言語が含まれているため、事前訓練されたダイアログモデルは、より小さなキュレートされたデータセットで微調整される。
本稿では,上記のトレードオフを緩和できるかどうかを検討する。
論文 参考訳(メタデータ) (2022-09-22T14:59:55Z) - What Can Transformers Learn In-Context? A Case Study of Simple Function
Classes [67.06980111346245]
インコンテキスト学習(In-context learning)とは、インコンテキストの例からなるプロンプトシーケンスでモデルに条件を付ける能力である。
我々は,標準変換器をスクラッチから訓練して,線形関数の文脈内学習を行うことを示した。
また、タスク固有の学習アルゴリズムに適合または超越したパフォーマンスで、より複雑な関数クラスをコンテキスト内で学習できるようにトランスフォーマーを訓練できることも示している。
論文 参考訳(メタデータ) (2022-08-01T18:01:40Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Transformer Models for Text Coherence Assessment [14.132559978971377]
コヒーレンス(coherence)は、テキストの品質の重要な側面であり、その可読性を保証するために不可欠である。
これまでの研究は、エンティティベースの手法、構文パターン、談話関係、最近ではテキストコヒーレンスアセスメントのための従来のディープラーニングアーキテクチャを活用してきた。
バニラ変換器,階層変換器,マルチタスク学習モデル,ファクトベース入力表現モデルという4つの異なるトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-05T22:27:17Z) - Turning Tables: Generating Examples from Semi-structured Tables for
Endowing Language Models with Reasoning Skills [32.55545292360155]
本稿では,半構造化テーブルを活用し,大規模質問とパラグラフのペアを自動的に生成する手法を提案する。
16種類の推論スキルを必要とする例を含む、この合成データに対する事前学習のステップを追加します。
我々のモデルであるPReasMは、トレーニング済みエンコーダ-デコーダモデルであるT5を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-15T11:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。