論文の概要: Legal experts disagree with rationale extraction techniques for explaining ECtHR case outcome classification
- arxiv url: http://arxiv.org/abs/2601.12419v1
- Date: Sun, 18 Jan 2026 14:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.6214
- Title: Legal experts disagree with rationale extraction techniques for explaining ECtHR case outcome classification
- Title(参考訳): 法律専門家は、ECtHR事例結果分類の説明のための合理的抽出手法に異を唱える
- Authors: Mahammad Namazov, Tomáš Koref, Ivan Habernal,
- Abstract要約: 解釈可能性(interpretability)は、法律分野における大規模言語モデルの応用に不可欠である。
本稿では,モデルに依存しない解釈可能性手法の比較分析フレームワークを提案する。
モデルが違反を予測する「理由」は,法の専門家とは大きく異なることを示す。
- 参考スコア(独自算出の注目度): 9.334783986218232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is critical for applications of large language models in the legal domain which requires trust and transparency. While some studies develop task-specific approaches, other use the classification model's parameters to explain the decisions. However, which technique explains the legal outcome prediction best remains an open question. To address this challenge, we propose a comparative analysis framework for model-agnostic interpretability techniques. Among these, we employ two rationale extraction methods, which justify outcomes with human-interpretable and concise text fragments (i.e., rationales) from the given input text. We conduct comparison by evaluating faithfulness-via normalized sufficiency and comprehensiveness metrics along with plausibility-by asking legal experts to evaluate extracted rationales. We further assess the feasibility of LLM-as-a-Judge using legal expert evaluation results. We show that the model's "reasons" for predicting a violation differ substantially from those of legal experts, despite highly promising quantitative analysis results and reasonable downstream classification performance. The source code of our experiments is publicly available at https://github.com/trusthlt/IntEval.
- Abstract(参考訳): 解釈可能性(Interpretability)は、信頼性と透明性を必要とする法的領域における大きな言語モデルの適用において重要である。
タスク固有のアプローチを開発する研究もある一方で、決定を説明するために分類モデルのパラメータを使用する研究もある。
しかし、この手法が法的結果の予測を最善に説明することは、未解決の問題である。
この課題に対処するために、モデルに依存しない解釈可能性技術の比較分析フレームワークを提案する。
これらのうち,人間の解釈可能なテキスト断片と簡潔なテキスト断片(すなわち,有理性)による結果の正当性を示す2つの有理性抽出手法を用いる。
本研究は, 正当性による正当性評価と包括性評価と, 法的専門家に抽出された有理性の評価を求めることによって比較を行う。
法律専門家評価結果を用いて, LLM-as-a-Judgeの有効性をさらに評価した。
また,本モデルでは,有望な定量的分析結果と合理的な下流分類性能にもかかわらず,違反を予測できる「理由」が法の専門家と大きく異なることを示した。
私たちの実験のソースコードはhttps://github.com/trusthlt/IntEval.comで公開されています。
関連論文リスト
- Dissecting Judicial Reasoning in U.S. Copyright Damage Awards [0.21485350418225238]
著作権損害賠償の法的理由付けは 計算法的分析にとって 重要な課題だ
連邦裁判所は1976年の著作権法に従い、その解釈と要素重み付けは司法管轄区域によって大きく異なる。
本稿では,RST(Rhetorical Structure Theory)とエージェントワークフローを統合した,新しい談話に基づくLarge Language Model(LLM)手法を提案する。
論文 参考訳(メタデータ) (2026-01-14T13:09:16Z) - RLJP: Legal Judgment Prediction via First-Order Logic Rule-enhanced with Large Language Models [58.69183479148083]
法的判断予測(LJP)は、法的AIにおいて重要な課題である。
既存のLJPモデルは、高いパフォーマンスのために司法上の前例と法的な知識を統合している。
しかし彼らは、厳密な論理分析を必要とする法的判断の重要な要素である法的推論論理を無視している。
本稿では、一階述語論理(FOL)形式と比較学習(CL)に基づく規則強化された法的判断予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T14:50:21Z) - JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - DiReCT: Diagnostic Reasoning for Clinical Notes via Large Language Models [32.85606857702375]
本研究では,人間医師と比較して,大規模言語モデル(LLM)の推論能力と解釈可能性を評価することを目的とする。
臨床注記用診断推論データセット(DiReCT)は、511の臨床注記を含む。
論文 参考訳(メタデータ) (2024-08-04T05:15:02Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Empowering Prior to Court Legal Analysis: A Transparent and Accessible Dataset for Defensive Statement Classification and Interpretation [5.646219481667151]
本稿では,裁判所の手続きに先立って,警察の面接中に作成された文の分類に適した新しいデータセットを提案する。
本稿では,直感的文と真偽を区別し,最先端のパフォーマンスを実現するための微調整DistilBERTモデルを提案する。
我々はまた、法律専門家と非専門主義者の両方がシステムと対話し、利益を得ることを可能にするXAIインターフェースも提示する。
論文 参考訳(メタデータ) (2024-05-17T11:22:27Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Leveraging Large Language Models for Relevance Judgments in Legal Case Retrieval [16.29803062332164]
本稿では,大規模言語モデルによる専門家による関連判断の生成を支援する,数ショットのアプローチを提案する。
提案手法は,人間のアノテータのワークフローを模倣して,判断過程をいくつかの段階に分解する。
また、解釈可能なデータラベリングを保証し、関連性評価プロセスにおける透明性と明確性を提供します。
論文 参考訳(メタデータ) (2024-03-27T09:46:56Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。