論文の概要: Exploring Defeasibility in Causal Reasoning
- arxiv url: http://arxiv.org/abs/2401.03183v2
- Date: Thu, 27 Jun 2024 10:08:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 19:56:44.543627
- Title: Exploring Defeasibility in Causal Reasoning
- Title(参考訳): 因果推論におけるデフレシビリティの探求
- Authors: Shaobo Cui, Lazar Milikic, Yiyang Feng, Mete Ismayilzada, Debjit Paul, Antoine Bosselut, Boi Faltings,
- Abstract要約: 因果推論における非実現可能性を研究するための最初のベンチマークデータセットである$delta$-CAUSALを提示する。
我々は,現在の因果力指標が,支援者や敗者による因果力の変化を反映していないことを示す。
トークンレベルの因果関係に基づいて因果強度を測定する指標であるCESARを提案する。
- 参考スコア(独自算出の注目度): 25.872282063708663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Defeasibility in causal reasoning implies that the causal relationship between cause and effect can be strengthened or weakened. Namely, the causal strength between cause and effect should increase or decrease with the incorporation of strengthening arguments (supporters) or weakening arguments (defeaters), respectively. However, existing works ignore defeasibility in causal reasoning and fail to evaluate existing causal strength metrics in defeasible settings. In this work, we present $\delta$-CAUSAL, the first benchmark dataset for studying defeasibility in causal reasoning. $\delta$-CAUSAL includes around 11K events spanning ten domains, featuring defeasible causality pairs, i.e., cause-effect pairs accompanied by supporters and defeaters. We further show current causal strength metrics fail to reflect the change of causal strength with the incorporation of supporters or defeaters in $\delta$-CAUSAL. To this end, we propose CESAR (Causal Embedding aSsociation with Attention Rating), a metric that measures causal strength based on token-level causal relationships. CESAR achieves a significant 69.7% relative improvement over existing metrics, increasing from 47.2% to 80.1% in capturing the causal strength change brought by supporters and defeaters. We further demonstrate even Large Language Models (LLMs) like GPT-3.5 still lag 4.5 and 10.7 points behind humans in generating supporters and defeaters, emphasizing the challenge posed by $\delta$-CAUSAL.
- Abstract(参考訳): 因果推論における定義可能性とは、原因と効果の因果関係を強化するか弱めることができることを意味する。
すなわち、原因と効果の因果的強度は、それぞれ強化された議論(サポーター)または弱まる議論(デファター)を取り入れることで増大または減少するべきである。
しかし、既存の研究は因果推論における非実現可能性を無視し、非実現可能な設定における既存の因果強度指標を評価できない。
本研究では,因果推論における非実現可能性を研究するための最初のベンチマークデータセットである$\delta$-CAUSALを提案する。
$\delta$-CAUSALは10のドメインにまたがる約1万1千のイベントを含み、デファシブルな因果関係のペア、すなわちサポーターと敗者が伴う因果関係のペアを特徴とする。
さらに,現在の因果強度指標は,デルタ$-CAUSALの支持者や敗者の導入による因果強度の変化を反映していないことを示す。
この目的のために,トークンレベルの因果関係に基づいて因果強度を測定する尺度であるCESAR(Causal Embedding aSsociation with Attention Rating)を提案する。
CESARは、既存の指標に対する69.7%の相対的な改善を達成し、支持者や敗者による因果力の変化を捉えることで47.2%から80.1%に増加した。
さらに、GPT-3.5のような大規模言語モデル(LLM)さえも、支持者や敗者を生み出す上で、人間よりも4.5と10.7ポイント遅れており、$\delta$-CAUSALの課題を強調している。
関連論文リスト
- CELLO: Causal Evaluation of Large Vision-Language Models [9.928321287432365]
因果推論は人間の知性の基本であり、現実世界の環境における効果的な意思決定に不可欠である。
我々は,人間と物体の相互作用を含む因果関係の微細で統一的な定義を導入する。
我々は,4段階の因果関係に関する14,094の因果関係質問からなる新しいデータセットであるCellOを構築した。
論文 参考訳(メタデータ) (2024-06-27T12:34:52Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2334534968968969]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Demystifying Causal Features on Adversarial Examples and Causal
Inoculation for Robust Network by Adversarial Instrumental Variable
Regression [32.727673706238086]
本稿では、因果的な観点から、敵の訓練を受けたネットワークにおける予期せぬ脆弱性を掘り下げる手法を提案する。
展開することで,不偏環境下での敵予測の因果関係を推定する。
その結果, 推定因果関係は, 正解率の正解率と高い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T08:18:22Z) - ReCo: Reliable Causal Chain Reasoning via Structural Causal Recurrent
Neural Networks [32.537505018598736]
信頼性の高い因果連鎖推論フレームワーク(ReCo)を提案する。
実験によると、ReCoは中国語と英語のCCRデータセットにおいて、一連の強力なベースラインを上回っている。
BERTは、他の種類の知識によって強化されたBERTモデルよりも、下流の因果関係の4つのタスクでより良いパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-12-16T07:48:02Z) - Weight-variant Latent Causal Models [79.79711624326299]
因果表現学習は、低レベルの観測の背後にある潜伏した高レベルの因果変数を明らかにする。
本研究では,潜伏因果変数の同定に焦点をあてる。
推移性は潜伏因果変数の識別性を著しく阻害することを示す。
本稿では,潜時因果変数を直接学習する構造式caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Causal Discovery for Fairness [3.3861246056563616]
因果的発見アプローチの違いが因果的モデルにどのように影響するか,因果的モデル間の微妙な差異が公平さ/差別的結論にどのように影響するかを示す。
本研究の主な目的は,因果関係を用いて公平に対処する因果発見ステップの重要性を明らかにすることである。
論文 参考訳(メタデータ) (2022-06-14T08:40:40Z) - Certified Robustness Against Natural Language Attacks by Causal
Intervention [61.62348826831147]
Causal Intervention by Semantic Smoothing (CISS)は、自然言語攻撃に対する堅牢性に向けた新しい枠組みである。
CISSは単語置換攻撃に対して確実に堅牢であり、未知の攻撃アルゴリズムによって摂動が強化されたとしても経験的に堅牢である。
論文 参考訳(メタデータ) (2022-05-24T19:20:48Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。