論文の概要: Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis
- arxiv url: http://arxiv.org/abs/2104.09420v2
- Date: Wed, 21 Apr 2021 07:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 11:19:29.580275
- Title: Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis
- Title(参考訳): すべてに原因がある: 法的テキスト分析における因果推論の活用
- Authors: Xiao Liu, Da Yin, Yansong Feng, Yuting Wu, Dongyan Zhao
- Abstract要約: 因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
- 参考スコア(独自算出の注目度): 62.44432226563088
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Causal inference is the process of capturing cause-effect relationship among
variables. Most existing works focus on dealing with structured data, while
mining causal relationship among factors from unstructured data, like text, has
been less examined, but is of great importance, especially in the legal domain.
In this paper, we propose a novel Graph-based Causal Inference (GCI)
framework, which builds causal graphs from fact descriptions without much human
involvement and enables causal inference to facilitate legal practitioners to
make proper decisions. We evaluate the framework on a challenging similar
charge disambiguation task. Experimental results show that GCI can capture the
nuance from fact descriptions among multiple confusing charges and provide
explainable discrimination, especially in few-shot settings. We also observe
that the causal knowledge contained in GCI can be effectively injected into
powerful neural networks for better performance and interpretability.
- Abstract(参考訳): 因果推論は変数間の因果関係を捉えるプロセスである。
既存の研究の多くは構造化データを扱うことに重点を置いているが、テキストのような構造化されていないデータから因果関係を抽出することはあまり検討されていない。
本稿では,人間の関与をあまり受けずに事実記述から因果グラフを構築する新しいグラフベース因果推論(gci)フレームワークを提案する。
我々は、類似の電荷曖昧化課題について、その枠組みを評価する。
実験の結果、gciは複数の紛らわしいチャージの事実記述からニュアンスを捉え、特に少数ショット設定において説明可能な識別を提供することができた。
また,gciに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで,性能と解釈性の向上が期待できる。
関連論文リスト
- Counterfactual Causal Inference in Natural Language with Large Language Models [9.153187514369849]
本稿では,自然言語からの因果構造発見と因果推論手法を提案する。
まず LLM を用いてテキストデータからインスタンス化された因果変数を抽出し,因果グラフを構築する。
次に、推定されたグラフに対して反実数推論を行う。
論文 参考訳(メタデータ) (2024-10-08T21:53:07Z) - New Rules for Causal Identification with Background Knowledge [59.733125324672656]
オープンな問題に対する新たな視点を提供するBKを導入するための2つの新しいルールを提案する。
これらのルールは、観測データによる因果効果のセットを決定するなど、典型的な因果関係のタスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-21T20:21:21Z) - Causal Concept Graph Models: Beyond Causal Opacity in Deep Learning [11.13665894783481]
因果不透明性(英: Causal opacity)とは、ディープニューラルネットワーク(DNN)モデルの決定の根底にある「隠れた」因果構造を理解することの難しさを指す。
この研究は、因果概念グラフモデル(Causal Concept Graph Models, Causal CGMs)を導入している。
実験の結果, (i) 因果不透明モデルの一般化性能に一致し, (ii) ループ内修正を誤予測中間推論ステップに適用し, (iii) 介入シナリオと反事実シナリオの分析を支援することができた。
論文 参考訳(メタデータ) (2024-05-26T10:15:20Z) - Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2334534968968969]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - FAIR: A Causal Framework for Accurately Inferring Judgments Reversals [0.0]
ケースリバース(FAIR)の正確な推論のための因果的枠組みを提案する。
我々は、因果推論法により判断の逆転の原因を抽出し、得られた因果関係を優先知識としてニューラルネットワークに注入する。
我々のフレームワークは、判断の逆転において最も重要な要素を利用でき、得られた因果関係は、ニューラルネットワークの性能を効果的に改善することができる。
論文 参考訳(メタデータ) (2023-06-20T15:02:25Z) - A Survey on Causal Discovery: Theory and Practice [2.741266294612776]
因果推論は、原因とその影響を結びつける基礎となる関係を定量化するように設計されている。
本稿では,最近の進歩を統一的に検討し,既存のアルゴリズムを一貫した概要を提供し,有用なツールやデータを報告する。
論文 参考訳(メタデータ) (2023-05-17T08:18:56Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。