論文の概要: Probing Causal Common Sense in Dialogue Response Generation
- arxiv url: http://arxiv.org/abs/2104.09574v2
- Date: Wed, 21 Apr 2021 20:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 11:55:44.194154
- Title: Probing Causal Common Sense in Dialogue Response Generation
- Title(参考訳): 対話応答生成における因果共通感覚の探索
- Authors: Pei Zhou, Pegah Jandaghi, Bill Yuchen Lin, Justin Cho, Jay Pujara,
Xiang Ren
- Abstract要約: 対話型コモンセンスの形式化方法と、コモンセンスを用いたRGモデル能力の検討方法という2つの研究課題に取り組みます。
このような説明を自動的に生成するプロセスを導入し、人間に検証を依頼する。
RGモデルは、説明の論理的妥当性を決定するのに苦労するが、説明の文法的自然性を容易に特定できる。
- 参考スコア(独自算出の注目度): 32.80527740174269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Communication is a cooperative effort that requires reaching mutual
understanding among the participants. Humans use commonsense reasoning
implicitly to produce natural and logically-coherent responses. As a step
towards fluid human-AI communication, we study if response generation (RG)
models can emulate human reasoning process and use common sense to help produce
better-quality responses. We aim to tackle two research questions: how to
formalize conversational common sense and how to examine RG models capability
to use common sense? We first propose a task, CEDAR: Causal common sEnse in
DiAlogue Response generation, that concretizes common sense as textual
explanations for what might lead to the response and evaluates RG models
behavior by comparing the modeling loss given a valid explanation with an
invalid one. Then we introduce a process that automatically generates such
explanations and ask humans to verify them. Finally, we design two probing
settings for RG models targeting two reasoning capabilities using verified
explanations. We find that RG models have a hard time determining the logical
validity of explanations but can identify grammatical naturalness of the
explanation easily.
- Abstract(参考訳): コミュニケーションは、参加者間の相互理解に到達する必要がある共同作業である。
人間は暗黙的に常識推論を使用して自然で論理的に一貫性のある反応を生成する。
流動型人間-AIコミュニケーションに向けたステップとして,RGモデルが人間の推論過程をエミュレートし,共通感覚を用いて高品質な応答を生成するかを検討する。
会話のコモンセンスの形式化と、コモンセンスを利用するRGモデル能力の検証という2つの研究課題に取り組むことを目指している。
まず, 対話応答生成における因果的共通sEnseを, 応答に繋がる可能性のある文的説明として, 共通感覚を増進し, モデル損失と無効な説明とを比較してRGモデルの振る舞いを評価する。
そして、このような説明を自動的に生成し、人間に検証を依頼するプロセスを導入する。
最後に、検証された説明を用いた2つの推論機能を対象としたRGモデルの2つの探索設定を設計する。
RGモデルは、説明の論理的妥当性を決定するのに苦労するが、説明の文法的自然性を容易に特定できる。
関連論文リスト
- Towards Explainable Goal Recognition Using Weight of Evidence (WoE): A Human-Centered Approach [5.174712539403376]
ゴール認識(GR)は、一連の観察からエージェントの観測されていないゴールを推測することを含む。
伝統的にGRは「最良の説明への推論」や誘拐によって対処されてきた。
本稿では,人間行動説明の基礎となる理論的枠組みと認知過程を基礎とした,GRエージェントのための説明可能なモデルの導入と評価を行う。
論文 参考訳(メタデータ) (2024-09-18T03:30:01Z) - S3C: Semi-Supervised VQA Natural Language Explanation via Self-Critical
Learning [46.787034512390434]
VQA自然言語説明(VQA-NLE)タスクは、自然言語におけるVQAモデルの意思決定プロセスを説明することを目的としている。
自己批判学習(S3C)による半教師付きVQA-NLEを提案する。
S3Cは、報酬に答えることで、解答と合理性の間の論理的整合性を改善することによって、候補説明を評価する。
論文 参考訳(メタデータ) (2023-09-05T11:47:51Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - E-KAR: A Benchmark for Rationalizing Natural Language Analogical
Reasoning [36.133083454829055]
知識集約型推論ベンチマーク(E-KAR)を提案する。
私たちのベンチマークは、Civil Service Examsから得られた1,655(中国語)と1,251(英語)の問題で構成されています。
提案手法は,類推を記述すべきか否かを記述した自由文説明スキームを設計し,各質問や候補者の回答に対して手作業で注釈を付ける。
論文 参考訳(メタデータ) (2022-03-16T09:16:38Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Local Explanation of Dialogue Response Generation [77.68077106724522]
反応生成の局所的説明(LERG)は、生成モデルの推論過程に関する洞察を得るために提案される。
LERGは、シーケンス予測を人間の応答の不確実性推定とみなし、入力を摂動させ、人間の応答に対する確実性の変化を計算することによって説明を作成する。
提案手法は, 提案手法を改良し, 提案手法の4.4~12.8%を改良した。
論文 参考訳(メタデータ) (2021-06-11T17:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。