論文の概要: An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented
Dialogue Generation
- arxiv url: http://arxiv.org/abs/2203.05843v1
- Date: Fri, 11 Mar 2022 10:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 17:26:16.487589
- Title: An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented
Dialogue Generation
- Title(参考訳): タスク指向対話生成のための解釈可能なニューロシンボリック推論フレームワーク
- Authors: Shiquan Yang, Rui Zhang, Sarah Erfani, Jey Han Lau
- Abstract要約: 我々は,モデル決定を推論チェーンで正当化する明示的推論を行うために,ニューロシンボリックを導入する。
仮説生成器と推論器からなる2相手法を提案する。
システム全体は、推論チェーンアノテーションを使わずに、生のテキスト対話を利用して訓練される。
- 参考スコア(独自算出の注目度): 21.106357884651363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the interpretability issue of task-oriented dialogue systems in this
paper. Previously, most neural-based task-oriented dialogue systems employ an
implicit reasoning strategy that makes the model predictions uninterpretable to
humans. To obtain a transparent reasoning process, we introduce neuro-symbolic
to perform explicit reasoning that justifies model decisions by reasoning
chains. Since deriving reasoning chains requires multi-hop reasoning for
task-oriented dialogues, existing neuro-symbolic approaches would induce error
propagation due to the one-phase design. To overcome this, we propose a
two-phase approach that consists of a hypothesis generator and a reasoner. We
first obtain multiple hypotheses, i.e., potential operations to perform the
desired task, through the hypothesis generator. Each hypothesis is then
verified by the reasoner, and the valid one is selected to conduct the final
prediction. The whole system is trained by exploiting raw textual dialogues
without using any reasoning chain annotations. Experimental studies on two
public benchmark datasets demonstrate that the proposed approach not only
achieves better results, but also introduces an interpretable decision process.
- Abstract(参考訳): 本稿では,タスク指向対話システムの解釈可能性について考察する。
これまで、ほとんどのニューラルベースのタスク指向対話システムは、モデル予測を人間に解釈不能にする暗黙の推論戦略を採用している。
透明な推論プロセスを得るため,我々は,推論連鎖によるモデル決定を正当化する明示的な推論を行うためのニューロシンボリックを導入する。
推論連鎖の導出にはタスク指向対話のマルチホップ推論が必要であるため、既存のニューロシンボリックアプローチは一相設計による誤り伝播を引き起こす。
これを解決するために,仮説生成器と推論器からなる2相アプローチを提案する。
まず、仮説生成器を通して、所望のタスクを実行する潜在的操作という複数の仮説を得る。
各仮説は推論者によって検証され、妥当な仮説は最終予測を行うために選択される。
システム全体は、推論チェーンアノテーションを使わずに生のテキスト対話を利用して訓練される。
2つの公開ベンチマークデータセットに関する実験的研究は、提案手法がより良い結果を得るだけでなく、解釈可能な決定プロセスも導入することを示した。
関連論文リスト
- Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Towards Trustworthy Explanation: On Causal Rationalization [9.48539398357156]
本研究では,2つの因果デシラタに基づく合理化モデルを提案する。
提案した因果合理化の優れた性能は,実世界のレビューや医療データセットで実証されている。
論文 参考訳(メタデータ) (2023-06-25T03:34:06Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Natural Language Deduction through Search over Statement Compositions [43.93269297653265]
本稿では,タスクを最優先探索で協調したステップに分解する自然言語推論システムを提案する。
実験により,提案システムは検証不可能な仮説と検証不可能な仮説をよりよく区別できることを示した。
論文 参考訳(メタデータ) (2022-01-16T12:05:48Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z) - Modeling Voting for System Combination in Machine Translation [92.09572642019145]
本稿では,機械翻訳におけるシステムの組み合わせに対する投票のモデル化手法を提案する。
提案手法は,仮説間の関係を解析できるだけでなく,エンドツーエンドのトレーニングを可能にするため,統計的手法とニューラル手法の利点を組み合わせたものである。
論文 参考訳(メタデータ) (2020-07-14T09:59:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。