論文の概要: Exploring Defeasibility in Causal Reasoning
- arxiv url: http://arxiv.org/abs/2401.03183v2
- Date: Thu, 27 Jun 2024 10:08:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 19:56:44.543627
- Title: Exploring Defeasibility in Causal Reasoning
- Title(参考訳): 因果推論におけるデフレシビリティの探求
- Authors: Shaobo Cui, Lazar Milikic, Yiyang Feng, Mete Ismayilzada, Debjit Paul, Antoine Bosselut, Boi Faltings,
- Abstract要約: 因果推論における非実現可能性を研究するための最初のベンチマークデータセットである$delta$-CAUSALを提示する。
我々は,現在の因果力指標が,支援者や敗者による因果力の変化を反映していないことを示す。
トークンレベルの因果関係に基づいて因果強度を測定する指標であるCESARを提案する。
- 参考スコア(独自算出の注目度): 25.872282063708663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Defeasibility in causal reasoning implies that the causal relationship between cause and effect can be strengthened or weakened. Namely, the causal strength between cause and effect should increase or decrease with the incorporation of strengthening arguments (supporters) or weakening arguments (defeaters), respectively. However, existing works ignore defeasibility in causal reasoning and fail to evaluate existing causal strength metrics in defeasible settings. In this work, we present $\delta$-CAUSAL, the first benchmark dataset for studying defeasibility in causal reasoning. $\delta$-CAUSAL includes around 11K events spanning ten domains, featuring defeasible causality pairs, i.e., cause-effect pairs accompanied by supporters and defeaters. We further show current causal strength metrics fail to reflect the change of causal strength with the incorporation of supporters or defeaters in $\delta$-CAUSAL. To this end, we propose CESAR (Causal Embedding aSsociation with Attention Rating), a metric that measures causal strength based on token-level causal relationships. CESAR achieves a significant 69.7% relative improvement over existing metrics, increasing from 47.2% to 80.1% in capturing the causal strength change brought by supporters and defeaters. We further demonstrate even Large Language Models (LLMs) like GPT-3.5 still lag 4.5 and 10.7 points behind humans in generating supporters and defeaters, emphasizing the challenge posed by $\delta$-CAUSAL.
- Abstract(参考訳): 因果推論における定義可能性とは、原因と効果の因果関係を強化するか弱めることができることを意味する。
すなわち、原因と効果の因果的強度は、それぞれ強化された議論(サポーター)または弱まる議論(デファター)を取り入れることで増大または減少するべきである。
しかし、既存の研究は因果推論における非実現可能性を無視し、非実現可能な設定における既存の因果強度指標を評価できない。
本研究では,因果推論における非実現可能性を研究するための最初のベンチマークデータセットである$\delta$-CAUSALを提案する。
$\delta$-CAUSALは10のドメインにまたがる約1万1千のイベントを含み、デファシブルな因果関係のペア、すなわちサポーターと敗者が伴う因果関係のペアを特徴とする。
さらに,現在の因果強度指標は,デルタ$-CAUSALの支持者や敗者の導入による因果強度の変化を反映していないことを示す。
この目的のために,トークンレベルの因果関係に基づいて因果強度を測定する尺度であるCESAR(Causal Embedding aSsociation with Attention Rating)を提案する。
CESARは、既存の指標に対する69.7%の相対的な改善を達成し、支持者や敗者による因果力の変化を捉えることで47.2%から80.1%に増加した。
さらに、GPT-3.5のような大規模言語モデル(LLM)さえも、支持者や敗者を生み出す上で、人間よりも4.5と10.7ポイント遅れており、$\delta$-CAUSALの課題を強調している。
関連論文リスト
- ACCESS : A Benchmark for Abstract Causal Event Discovery and Reasoning [47.540945048737434]
我々は、抽象因果イベントの発見と推論のために設計されたベンチマークである textttACCESS を紹介する。
本稿では,暗黙的なコモンセンス因果的知識の大規模データセットから,イベント一般化のための抽象化を識別するためのパイプラインを提案する。
論文 参考訳(メタデータ) (2025-02-12T06:19:02Z) - Causal Claims in Economics [0.0]
1980年から2023年までの44,000件以上のNBERおよびCEPR作業論文を,知識グラフ構築のためのカスタム言語モデルを用いて分析した。
我々は、1990年の約4%から2020年の約28%まで、因果関係の主張のシェアが大幅に上昇したことを報告している。
因果的物語の複雑さは、上位5誌の出版と上位引用数の両方を強く予測するのに対し、非因果的複雑性はこれらの結果と非相関性または負の相関性を持つ傾向にある。
論文 参考訳(メタデータ) (2025-01-12T17:03:45Z) - CSCE: Boosting LLM Reasoning by Simultaneous Enhancing of Casual Significance and Consistency [12.961692839965115]
チェーン・オブ・シンキング(CoT)のような連鎖型推論手法は、大規模言語モデル(LLM)の推論タスクの解決において、その役割を担っている。
本稿では、因果的重要性と一貫性を同時に考慮する非チェーン型推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T08:28:23Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2334534968968969]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - ReCo: Reliable Causal Chain Reasoning via Structural Causal Recurrent
Neural Networks [32.537505018598736]
信頼性の高い因果連鎖推論フレームワーク(ReCo)を提案する。
実験によると、ReCoは中国語と英語のCCRデータセットにおいて、一連の強力なベースラインを上回っている。
BERTは、他の種類の知識によって強化されたBERTモデルよりも、下流の因果関係の4つのタスクでより良いパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-12-16T07:48:02Z) - Certified Robustness Against Natural Language Attacks by Causal
Intervention [61.62348826831147]
Causal Intervention by Semantic Smoothing (CISS)は、自然言語攻撃に対する堅牢性に向けた新しい枠組みである。
CISSは単語置換攻撃に対して確実に堅牢であり、未知の攻撃アルゴリズムによって摂動が強化されたとしても経験的に堅牢である。
論文 参考訳(メタデータ) (2022-05-24T19:20:48Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。