論文の概要: The Judge Variable: Challenging Judge-Agnostic Legal Judgment Prediction
- arxiv url: http://arxiv.org/abs/2507.13732v1
- Date: Fri, 18 Jul 2025 08:28:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.223479
- Title: The Judge Variable: Challenging Judge-Agnostic Legal Judgment Prediction
- Title(参考訳): 裁判官の可変性: 裁判官の無知な法的判断の予測を満足させる
- Authors: Guillaume Zambrano,
- Abstract要約: 本研究では,法的意思決定における人間裁判官の役割について検討する。
機械学習を使って、フランスの控訴裁判所で児童の身体的保護結果を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study examines the role of human judges in legal decision-making by using machine learning to predict child physical custody outcomes in French appellate courts. Building on the legal realism-formalism debate, we test whether individual judges' decision-making patterns significantly influence case outcomes, challenging the assumption that judges are neutral variables that apply the law uniformly. To ensure compliance with French privacy laws, we implement a strict pseudonymization process. Our analysis uses 18,937 living arrangements rulings extracted from 10,306 cases. We compare models trained on individual judges' past rulings (specialist models) with a judge-agnostic model trained on aggregated data (generalist models). The prediction pipeline is a hybrid approach combining large language models (LLMs) for structured feature extraction and ML models for outcome prediction (RF, XGB and SVC). Our results show that specialist models consistently achieve higher predictive accuracy than the general model, with top-performing models reaching F1 scores as high as 92.85%, compared to the generalist model's 82.63% trained on 20x to 100x more samples. Specialist models capture stable individual patterns that are not transferable to other judges. In-Domain and Cross-Domain validity tests provide empirical support for legal realism, demonstrating that judicial identity plays a measurable role in legal outcomes. All data and code used will be made available.
- Abstract(参考訳): 本研究では, 子どもの身体保護効果を予測するために, 機械学習を用いて, 法的意思決定における人間裁判官の役割について検討した。
法的なリアリズム-形式主義の議論に基づいて、個々の裁判官の意思決定パターンが事例結果に重大な影響を及ぼすかどうかを検証し、裁判官が法を一様に適用する中立変数であるという仮定に挑戦する。
フランスのプライバシー法に準拠するために、厳格な偽名化プロセスを実装します。
分析では,10,306症例から抽出した18,937件の生活配置決定を用いた。
我々は、個々の審査員の過去の判断(専門モデル)に基づいて訓練されたモデルと、集約されたデータ(一般モデル)に基づいて訓練された判断に依存しないモデルとを比較した。
予測パイプラインは、構造化特徴抽出のための大規模言語モデル(LLM)と結果予測のためのMLモデル(RF、XGB、SVC)を組み合わせたハイブリッドアプローチである。
以上の結果から,20倍から100倍のサンプルでトレーニングされた一般モデルの82.63%に比べ,F1スコアを92.85%まで上回ったモデルでは,一般モデルよりも高い予測精度が得られた。
スペシャリストモデルは、他の裁判官に転送できない安定した個々のパターンをキャプチャする。
In-Domain と Cross-Domain の妥当性テストは、法的現実主義を実証的に支援し、司法のアイデンティティが法的結果において測定可能な役割を果たすことを示す。
使用されるデータとコードは、すべて利用可能になる。
関連論文リスト
- The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness? [0.0]
本稿では,大規模言語モデル(LLM)が人間の合理的性判断を駆動するパターンを識別できることを考察する。
特定のモデルが表面レベルの応答だけでなく,その基盤となる決定的アーキテクチャも捉えていることを示す。
裁判官はより広いパターンに対して直感を調整でき、議員は政策解釈をテストでき、資源制約のある訴訟員は議論の受理をプレビューできる。
論文 参考訳(メタデータ) (2025-08-04T06:19:45Z) - From Calculation to Adjudication: Examining LLM judges on Mathematical Reasoning Tasks [11.01213914485374]
数学的推論タスクにおいて,大規模言語モデル (LLM) について検討する。
本分析により,判定性能と候補モデルタスク性能との間に強い相関関係が明らかになった。
その結果、音声の一部タグのような単純な特徴を用いて、LLM判断者の行動を予測することができるかどうかを検証した。
論文 参考訳(メタデータ) (2024-09-06T10:09:41Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Judging the Judges: Evaluating Alignment and Vulnerabilities in LLMs-as-Judges [6.609843448260634]
LLM-as-a-judgeパラダイムは,大規模言語モデルを評価するアプローチとして急速に普及している。
本稿では,人間間の合意が高いクリーンなシナリオに焦点を当てる。
我々は、複雑性や長さを早めるための感度や、寛大さへの傾向など、審査モデルの脆弱性を識別する。
論文 参考訳(メタデータ) (2024-06-18T13:49:54Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - Aligning Large Language Models by On-Policy Self-Judgment [49.31895979525054]
大規模言語モデルと人間の嗜好を整合させる既存のアプローチは、オンライン学習のために別々の報酬モデル(RM)を必要とするトレードオフに直面しています。
本稿では,オンライン学習を行う新たなアライメントフレームワークSELF-JUDGEを提案する。
また, さらなる評価を行なわずに, サンプリング自体がさらなる性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2024-02-17T11:25:26Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - Accuracy, Fairness, and Interpretability of Machine Learning Criminal
Recidivism Models [4.297070083645049]
様々な機械学習に基づく犯罪再犯モデルが、アメリカ合衆国ジョージア州の現実世界の仮釈放決定データセットに基づいて作成されている。
正確さ、公平さ、本質的に解釈可能であることとの間には、顕著な違いとトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2022-09-14T17:53:24Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Predicting Indian Supreme Court Judgments, Decisions, Or Appeals [0.403831199243454]
新たに開発したML対応法定予測モデルとその運用プロトタイプであるeLegPredictを紹介した。
eLegPredictは3072件の最高裁判所事件で訓練されテストされ、精度は76%に達した(F1スコア)。
eLegPredictはエンドユーザを支援するメカニズムを備えており、新しいケース記述を持つドキュメントが指定されたディレクトリにドロップされると、システムはすぐにコンテンツを読み込んで予測を生成する。
論文 参考訳(メタデータ) (2021-09-28T18:28:43Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。