論文の概要: Predicting Juror Predisposition Using Machine Learning: A Comparative Study of Human and Algorithmic Jury Selection
- arxiv url: http://arxiv.org/abs/2601.17745v1
- Date: Sun, 25 Jan 2026 08:32:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.313893
- Title: Predicting Juror Predisposition Using Machine Learning: A Comparative Study of Human and Algorithmic Jury Selection
- Title(参考訳): 機械学習による判例前置詞予測:人間とアルゴリズムによる判例選択の比較
- Authors: Ashwin Murthy, Ramesh Krishnamaneni, Sean Chacon, Kelsey Carlson, Ranjita Naik,
- Abstract要約: 本研究は,陪審員が陪審員の偏見を確実に予測できるかどうかを経験的に評価する。
教師付き機械学習(ML)モデルは、コンサルタントの予測を上回っます。
結果は、陪審員選考における人間の判断を評価するための実証的なベンチマークを提供する。
- 参考スコア(独自算出の注目度): 1.6827877960238549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior studies on the effectiveness of professional jury consultants in predicting juror proclivities have yielded mixed results, and few have rigorously evaluated consultant performance against chance under controlled conditions. This study addresses that gap by empirically assessing whether jury consultants can reliably predict juror predispositions beyond chance levels and whether supervised machine-learning (ML) models can outperform consultant predictions. Using data from N mock jurors who completed pre-trial attitudinal questionnaires and rendered verdicts in a standardized wrongful-termination case, we compared predictions made by professional jury consultants with those generated by Random Forest (RF) and k-Nearest Neighbors (KNN) classifiers. Model and consultant predictions were evaluated on a held-out test set using paired statistical tests and nonparametric bootstrap procedures. We find that supervised ML models significantly outperform professional jury consultants under identical informational constraints, while offering greater transparency, replicability, and auditability. These results provide an empirical benchmark for evaluating human judgment in jury selection and inform ongoing debates about the role of data-driven decision support in legal contexts. To support reproducibility and auditability, all code and data will be made publicly available upon publication.
- Abstract(参考訳): 審査員の確率を予測するための専門審査員の効力に関する先行研究は、様々な結果をもたらしており、規制された条件下での機会に対するコンサルタントのパフォーマンスを厳格に評価する者はほとんどいない。
この研究は、陪審員コンサルタントがチャンスレベルを超えて陪審員の事前処分を確実に予測できるかどうか、そして監督された機械学習(ML)モデルがコンサルタントの予測を上回っているかどうかを実証的に評価することでギャップを解消する。
調査前調査を完了したN人のモック陪審員のデータを用いて, 専門家の審査員による予測と, ランダムフォレスト(RF)とKNN(K-Nearest Neighbors)の分類を比較検討した。
モデルおよびコンサルタント予測は, ペア化統計テストと非パラメトリックブートストラップ法を用いて, ホールドアウトテストセットで評価した。
教師付きMLモデルは、透明性、複製性、監査性を提供しながら、同じ情報制約の下でプロの審査員コンサルタントを著しく上回ります。
これらの結果は、陪審員選考における人間の判断を評価するための実証的ベンチマークを提供し、法的文脈におけるデータ駆動型意思決定支援の役割について、現在進行中の議論を通知する。
再現性と監査性をサポートするため、すべてのコードとデータは公開時に公開される。
関連論文リスト
- Quantitative LLM Judges [60.773734899532336]
本研究では,既存のLLM審査員の評価スコアを,与えられた領域内の人間と一致させる定量的LLM審査員を提案する。
モデルは、その合理性とスコアを使用して、元の審査員のスコアを改善するために訓練される。
実験の結果, 定量的な判断は, ポストホックモデリングにより, 既存の判断の予測力を向上できることがわかった。
論文 参考訳(メタデータ) (2025-06-03T14:44:23Z) - JudgeLRM: Large Reasoning Models as a Judge [80.07261839142548]
判断指向大規模言語モデル(LLM)のファミリーであるジャッジLRMを紹介する。
SFTの性能向上と推論要求サンプルの比率との間には負の相関が見られ、これらのシナリオにおけるSFTの限界が明らかになる。
判定LRMは、他のRLおよびSFTの変種と同様に、同じサイズでSFTチューニングベースラインを一貫して上回り、最先端の推論モデルを超えていることを示す。
論文 参考訳(メタデータ) (2025-03-31T02:18:51Z) - Verdict: A Library for Scaling Judge-Time Compute [5.468405526095168]
Verdictは、自動評価器の精度、信頼性、解釈性を高めるために、判断時間計算をスケールするためのオープンソースのライブラリである。
評決は、マグニチュードの大きな微調整された審査員との競争を成し遂げる。
論文 参考訳(メタデータ) (2025-02-25T09:26:44Z) - JudgeBench: A Benchmark for Evaluating LLM-based Judges [61.048125269475854]
judgeBenchは、知識、推論、数学、コーディングにまたがる挑戦的な応答ペアに関するLSMベースの判断を評価するためのベンチマークである。
審査員、微調整された審査員、マルチエージェントの審査員、報酬モデルに関する包括的な評価は、審査員ベンチが以前のベンチマークよりもかなり大きな課題を課していることを示している。
論文 参考訳(メタデータ) (2024-10-16T17:58:19Z) - Enabling Discriminative Reasoning in LLMs for Legal Judgment Prediction [23.046342240176575]
人間の推論に触発されたAsk-Discriminate-Predict(ADAPT)推論フレームワークを紹介する。
ADAPTは、ケース事実を分解し、潜在的な電荷を識別し、最終的な判断を予測する。
広く利用されている2つのデータセットに対して行われた実験は、法的な判断予測において、我々のフレームワークの優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-02T05:43:15Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Deconfounding Legal Judgment Prediction for European Court of Human
Rights Cases Towards Better Alignment with Experts [1.252149409594807]
この研究は、専門家による調整を伴わない法的な判断予測システムは、浅い表面信号に対して脆弱であることを示す。
これを緩和するために、私たちは統計的に予測されるが法的に無関係な情報を戦略的に識別するために、ドメインの専門知識を使用します。
論文 参考訳(メタデータ) (2022-10-25T08:37:25Z) - Legal Judgment Prediction with Multi-Stage CaseRepresentation Learning
in the Real Court Setting [25.53133777558123]
本稿では, 実地裁判所から新たなデータセットを導入し, 法的な判断を合理的に百科事典的に予測する。
大規模な民事裁判データセットを用いた広範な実験は、提案モデルが、法的判断予測のためのクレーム、事実、議論の間の相互作用をより正確に特徴付けることができることを示している。
論文 参考訳(メタデータ) (2021-07-12T04:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。