論文の概要: Towards Causal Explanation Detection with Pyramid Salient-Aware Network
- arxiv url: http://arxiv.org/abs/2009.10288v2
- Date: Thu, 24 Sep 2020 02:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:15:08.830493
- Title: Towards Causal Explanation Detection with Pyramid Salient-Aware Network
- Title(参考訳): ピラミッド・サリエント・アウェア・ネットワークによる因果検出に向けて
- Authors: Xinyu Zuo, Yubo Chen, Kang Liu and Jun Zhao
- Abstract要約: 我々はメッセージの因果的説明を検出するためにピラミッド・サリアン・アウェア・ネットワークを設計する。
PSANは、Causal Explanation Detectionタスクにおいて、最先端のメソッドを1.8%F1値で上回る。
- 参考スコア(独自算出の注目度): 23.533310981207446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal explanation analysis (CEA) can assist us to understand the reasons
behind daily events, which has been found very helpful for understanding the
coherence of messages. In this paper, we focus on Causal Explanation Detection,
an important subtask of causal explanation analysis, which determines whether a
causal explanation exists in one message. We design a Pyramid Salient-Aware
Network (PSAN) to detect causal explanations on messages. PSAN can assist in
causal explanation detection via capturing the salient semantics of discourses
contained in their keywords with a bottom graph-based word-level salient
network. Furthermore, PSAN can modify the dominance of discourses via a top
attention-based discourse-level salient network to enhance explanatory
semantics of messages. The experiments on the commonly used dataset of CEA
shows that the PSAN outperforms the state-of-the-art method by 1.8% F1 value on
the Causal Explanation Detection task.
- Abstract(参考訳): 因果説明分析(CEA)は、メッセージの一貫性を理解するのに非常に役立ち、日々の出来事の背後にある理由を理解するのに役立ちます。
本稿では,因果的説明が1つのメッセージに存在するかどうかを判断する因果的説明分析の重要なサブタスクである因果的説明検出に焦点を当てる。
メッセージの因果的説明を検出するために,ピラミッドサルエントアウェアネットワーク(psan)を設計した。
PSANは,下層グラフに基づく単語レベルの有意ネットワークを用いて,キーワードに含まれる話題の有意な意味を捉えることによって因果的説明の検出を支援する。
さらに、PSANは、メッセージの説明的意味論を強化するために、トップアテンションベースの談話レベルサリアンネットワークを通じて、談話の優位性を変更することができる。
CEAの一般的なデータセットの実験は、PSANがCausal Explanation Detectionタスクの1.8%のF1値で最先端の手法より優れていることを示している。
関連論文リスト
- Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2334534968968969]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - Leveraging Structured Information for Explainable Multi-hop Question
Answering and Reasoning [14.219239732584368]
本研究では,マルチホップ質問応答のための抽出された意味構造(グラフ)の構築と活用について検討する。
実験結果と人的評価の結果から、我々のフレームワークはより忠実な推論連鎖を生成し、2つのベンチマークデータセットのQA性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T05:32:39Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - e-CARE: a New Dataset for Exploring Explainable Causal Reasoning [28.412572027774573]
そこで本研究では,21K以上の因果推論質問を用いた人間記述型Causal Reasoningデータセット(e-CARE)を提案する。
因果的事実の妥当な説明を生成することは、最先端のモデルでは依然として特に困難であることを示す。
論文 参考訳(メタデータ) (2022-05-12T02:41:48Z) - Rethinking Offensive Text Detection as a Multi-Hop Reasoning Problem [15.476899850339395]
対話における暗黙的な攻撃的テキスト検出の課題について紹介する。
我々は、このより広い種類の攻撃的発話を理解するためには、推論が不可欠であると主張する。
このタスクの研究を支援するデータセットであるSLIGHTをリリースする。
論文 参考訳(メタデータ) (2022-04-22T06:20:15Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Exploiting Reasoning Chains for Multi-hop Science Question Answering [51.86289192292466]
我々のフレームワークは、コーパス固有のアノテーションを必要とせずに説明可能な推論を行うことができる。
ローカルチェーン情報とグローバルチェーン情報の両方に関するTextitChain対応の損失は、生成されたチェーンが遠隔監視信号として機能するようにも設計されている。
論文 参考訳(メタデータ) (2021-09-07T07:22:07Z) - Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis [62.44432226563088]
因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
論文 参考訳(メタデータ) (2021-04-19T16:13:10Z) - Explain and Improve: LRP-Inference Fine-Tuning for Image Captioning
Models [82.3793660091354]
本稿では,注意を可視化する以外に,注意機構を付加した画像キャプションモデルの予測について分析する。
我々は,注意機構を備えた画像キャプションモデルに適したレイヤワイド関連伝搬(LRP)と勾配に基づく説明法を開発した。
論文 参考訳(メタデータ) (2020-01-04T05:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。