論文の概要: LLMPR: A Novel LLM-Driven Transfer Learning based Petition Ranking Model
- arxiv url: http://arxiv.org/abs/2505.21689v1
- Date: Tue, 27 May 2025 19:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.246596
- Title: LLMPR: A Novel LLM-Driven Transfer Learning based Petition Ranking Model
- Title(参考訳): LLMPR: LLM-Driven Transfer Learning based Petition Ranking Model
- Authors: Avijit Gayen, Somyajit Chakraborty, Mainak Sen, Soham Paul, Angshuman Jana,
- Abstract要約: 本稿では,その文脈的緊急性に基づいて,優先格付けを法的請願に割り当てる自動フレームワークを提案する。
実験の結果,ランダムフォレストモデルと決定木モデルの方が優れた性能を示した。
これらの結果から, 自動請願ランキングは, 司法を効果的に合理化し, 訴訟バックログを減らし, 法的優先順位付けの公平性を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 0.0699049312989311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The persistent accumulation of unresolved legal cases, especially within the Indian judiciary, significantly hampers the timely delivery of justice. Manual methods of prioritizing petitions are often prone to inefficiencies and subjective biases further exacerbating delays. To address this issue, we propose LLMPR (Large Language Model-based Petition Ranking), an automated framework that utilizes transfer learning and machine learning to assign priority rankings to legal petitions based on their contextual urgency. Leveraging the ILDC dataset comprising 7,593 annotated petitions, we process unstructured legal text and extract features through various embedding techniques, including DistilBERT, LegalBERT, and MiniLM. These textual embeddings are combined with quantitative indicators such as gap days, rank scores, and word counts to train multiple machine learning models, including Random Forest, Decision Tree, XGBoost, LightGBM, and CatBoost. Our experiments demonstrate that Random Forest and Decision Tree models yield superior performance, with accuracy exceeding 99% and a Spearman rank correlation of 0.99. Notably, models using only numerical features achieve nearly optimal ranking results (R2 = 0.988, \r{ho} = 0.998), while LLM-based embeddings offer only marginal gains. These findings suggest that automated petition ranking can effectively streamline judicial workflows, reduce case backlog, and improve fairness in legal prioritization.
- Abstract(参考訳): 未解決の訴訟の持続的蓄積、特にインド司法裁判所内では、司法のタイムリーな配達を著しく妨げた。
請願書を優先する手作業の方法は、しばしば非効率性や主観的偏見がさらに遅れを悪化させる。
この問題に対処するために,移動学習と機械学習を利用して,文脈的緊急性に基づく訴訟の優先順位付けを行う自動フレームワーク LLMPR (Large Language Model-based Petition Ranking) を提案する。
注釈付請願書7,593件からなるILDCデータセットを利用して,DistilBERT, LegalBERT, MiniLMなどの埋め込み技術を用いて, 構造化されていない法的文書を抽出し, 特徴を抽出する。
これらのテキスト埋め込みは、ギャップデー、ランクスコア、ワードカウントなどの定量的指標と組み合わせて、ランダムフォレスト、決定木、XGBoost、LightGBM、CatBoostといった複数の機械学習モデルをトレーニングする。
実験の結果,ランダムフォレストモデルと決定木モデルでは精度が99%を超え,スピアマンのランク相関が0.99であった。
特に、数値的特徴のみを用いたモデルは、ほぼ最適なランク付け結果(R2 = 0.988, \r{ho} = 0.998)を得るが、LCMベースの埋め込みは限界利得しか得られない。
これらの結果から, 自動請願ランキングは, 司法ワークフローを効果的に効率化し, 訴訟のバックログを減らし, 法的優先順位付けの公正性を向上させることが示唆された。
関連論文リスト
- Rank-R1: Enhancing Reasoning in LLM-based Document Rerankers via Reinforcement Learning [76.50690734636477]
ランキングタスクを実行する前にユーザクエリと候補文書の両方を推論する新しいLCMベースのリランカである Rank-R1 を導入する。
TREC DL と BRIGHT データセットを用いた実験により,Ranc-R1 が特に複雑なクエリに対して非常に有効であることが判明した。
論文 参考訳(メタデータ) (2025-03-08T03:14:26Z) - SPARC: Score Prompting and Adaptive Fusion for Zero-Shot Multi-Label Recognition in Vision-Language Models [74.40683913645731]
Zero-shot Multi-label Recognition (MLR) with Vision-Language Models (VLMs) は、トレーニングデータ、モデルチューニング、アーキテクチャの変更なしに重要な課題に直面している。
我々の研究は、VLMをブラックボックスとして扱い、トレーニングデータや地上の真実を使わずにスコアを活用する新しいソリューションを提案する。
これらのプロンプトスコアの分析により、VLMバイアスとAND'/OR信号の曖昧さが明らかになり、特に、最高スコアは2番目に高いスコアに比べて驚くほど低い。
論文 参考訳(メタデータ) (2025-02-24T07:15:05Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - Leveraging Passage Embeddings for Efficient Listwise Reranking with Large Language Models [17.420756201557957]
本稿では, PE-Rankを提案する。
本稿では,これらの特別なトークンに復号空間を動的に制約し,復号処理を高速化する推論手法を提案する。
複数のベンチマークの結果、PE-Rankは、競合するランキング効率を維持しながら、プリフィルとデコードの両方の効率を大幅に改善することを示した。
論文 参考訳(メタデータ) (2024-06-21T03:33:51Z) - PARAMANU-AYN: Pretrain from scratch or Continual Pretraining of LLMs for Legal Domain Adaptation? [3.9018931027384056]
パラマヌ・アイン(Paramanu-Ayn)は、インドの訴訟文書に特化して訓練された法律言語モデルのコレクションである。
Paramanu-Aynは1つのGPU上でわずか185時間、コンテキストサイズ8192のスクラッチから事前トレーニングされた。
論文 参考訳(メタデータ) (2024-03-20T15:39:54Z) - PRILoRA: Pruned and Rank-Increasing Low-Rank Adaptation [65.268245109828]
我々はPRILoRAを導入し、各層ごとに異なるランクを線形に割り当て、トレーニングプロセスを通してプルーニングを行う。
8つのGLUEベンチマークで広範な実験を行い,PRILoRAの有効性を検証する。
論文 参考訳(メタデータ) (2024-01-20T20:25:17Z) - Predicting delays in Indian lower courts using AutoML and Decision
Forests [0.0]
本稿では,出願時に利用可能な事例情報に基づいて,インドの下級裁判所における遅延を予測する分類モデルを提案する。
このモデルは2010年に提出された4200万件の訴訟のデータセットと、10年間にわたる結果に基づいて構築されている。
最良のモデルは81.4%の精度を達成し、精度、リコール、F1は0.81であることが判明した。
論文 参考訳(メタデータ) (2023-07-30T17:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。