論文の概要: Knowledge is Power: Understanding Causality Makes Legal judgment
Prediction Models More Generalizable and Robust
- arxiv url: http://arxiv.org/abs/2211.03046v1
- Date: Sun, 6 Nov 2022 07:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 15:26:32.000456
- Title: Knowledge is Power: Understanding Causality Makes Legal judgment
Prediction Models More Generalizable and Robust
- Title(参考訳): 知識は力である - 因果関係を理解することで,法的判断予測モデルがより一般化し,堅牢になる
- Authors: Haotian Chen, Lingwei Zhang, Fanchao Chen, Yang Yu
- Abstract要約: 法的判断予測(LJP)は、限られた法律実務者の労働負担を軽減するための法的支援として機能する。
本論文では,法文中の因果関係の知識を学習するためのモデルを導くための枠組みを提案する。
我々のモデルはベースラインよりも一般化可能で堅牢であり、2つの一般的な法定データセット上で新しいSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 3.8836977418489127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legal judgment Prediction (LJP), aiming to predict a judgment based on fact
descriptions, serves as legal assistance to mitigate the great work burden of
limited legal practitioners. Most existing methods apply various large-scale
pre-trained language models (PLMs) finetuned in LJP tasks to obtain consistent
improvements. However, we discover the fact that the state-of-the-art (SOTA)
model makes judgment predictions according to wrong (or non-casual)
information, which not only weakens the model's generalization capability but
also results in severe social problems like discrimination. Here, we analyze
the causal mechanism misleading the LJP model to learn the spurious
correlations, and then propose a framework to guide the model to learn the
underlying causality knowledge in the legal texts. Specifically, we first
perform open information extraction (OIE) to refine the text having a high
proportion of causal information, according to which we generate a new set of
data. Then, we design a model learning the weights of the refined data and the
raw data for LJP model training. The extensive experimental results show that
our model is more generalizable and robust than the baselines and achieves a
new SOTA performance on two commonly used legal-specific datasets.
- Abstract(参考訳): 事実記述に基づく判断の予測を目的とした法的判断予測(LJP)は、限られた法律実務者の作業負担を軽減するための法的支援となる。
既存のほとんどの手法は、LJPタスクで微調整された様々な大規模事前訓練言語モデル(PLM)を適用し、一貫した改善を得る。
しかし, 現状技術(SOTA)モデルが誤った情報(あるいは非因果情報)に基づいて判断を下すことは, モデルの一般化能力を低下させるだけでなく, 差別などの深刻な社会問題を引き起こす。
本稿では,ljpモデルを誤解してスプリアス相関を学習する因果メカニズムを分析し,その基礎となる因果知識を法律テキストで学ぶための枠組みを提案する。
具体的には、まずオープン情報抽出(OIE)を行い、因果情報の割合の高いテキストを改良し、新しいデータセットを生成する。
次に,改良データと生データの重み付けを学習し,ljpモデルトレーニングを行うモデルの設計を行う。
広範な実験結果から,本モデルはベースラインよりも汎用的でロバストであり,一般的な2つの法定データセット上で新たなsota性能を実現することができた。
関連論文リスト
- Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Did the Models Understand Documents? Benchmarking Models for Language
Understanding in Document-Level Relation Extraction [2.4665182280122577]
近年,ドキュメントレベルの関係抽出 (DocRE) が注目されている。
モデルはDocREで一貫したパフォーマンス向上を達成するが、根底にある決定ルールはまだ検討されていない。
本稿では,この質問に答える第一歩として,モデルを包括的に評価する新たな視点を紹介する。
論文 参考訳(メタデータ) (2023-06-20T08:52:05Z) - Preserving Commonsense Knowledge from Pre-trained Language Models via
Causal Inference [20.5696436171006]
現存する研究の多くは破滅的な忘れ物であり、訓練済みの知識を無差別に保持している。
我々は因果グラフに微調整を行い、破滅的な忘れ物が事前訓練されたデータから欠落した因果関係にあることを発見した。
実験では,6つのコモンセンスQAデータセットに対して,最先端の微調整手法より優れていた。
論文 参考訳(メタデータ) (2023-06-19T09:06:44Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - On the Trade-Off between Actionable Explanations and the Right to be
Forgotten [21.26254644739585]
データ削除要求の文脈におけるリコース無効化の問題について検討する。
トレーニングセットから最大2つのデータインスタンスを削除することで、一般的な最先端アルゴリズムによって出力されるすべてのリコースの最大95%を無効化できることを示す。
論文 参考訳(メタデータ) (2022-08-30T10:35:32Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Provably Robust Model-Centric Explanations for Critical Decision-Making [14.367217955827002]
データ中心の手法は、限られた実用性についての脆い説明をもたらす可能性がある。
しかし、モデル中心のフレームワークは、実際にAIモデルを使用するリスクに関する実用的な洞察を提供することができる。
論文 参考訳(メタデータ) (2021-10-26T18:05:49Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。