論文の概要: Scaling Legal AI: Benchmarking Mamba and Transformers for Statutory Classification and Case Law Retrieval
- arxiv url: http://arxiv.org/abs/2509.00141v1
- Date: Fri, 29 Aug 2025 17:38:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.102646
- Title: Scaling Legal AI: Benchmarking Mamba and Transformers for Statutory Classification and Case Law Retrieval
- Title(参考訳): 法的AIのスケーリング - 統計分類とケースロー検索のためのマンバとトランスフォーマーのベンチマーク
- Authors: Anuraj Maurya,
- Abstract要約: 本稿では,線形時間選択機構を持つ状態空間モデルであるMambaを,法定分類と判例法検索のための主要な変圧器モデルに対して,初めて包括的ベンチマークを行った。
その結果、マンバの線形スケーリングにより、トランスフォーマーの何倍も長い法律文書を処理できることがわかった。
我々の発見は、国家空間モデルとトランスフォーマーのトレードオフを強調し、法定分析、司法決定支援、政策研究に法的AIを配置するためのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid growth of statutory corpora and judicial decisions requires scalable legal AI systems capable of classification and retrieval over extremely long contexts. Transformer-based architectures (e.g., Longformer, DeBERTa) dominate current legal NLP benchmarks but struggle with quadratic attention costs, limiting efficiency and scalability. In this work, we present the first comprehensive benchmarking of Mamba, a state-space model (SSM) with linear-time selective mechanisms, against leading transformer models for statutory classification and case law retrieval. We evaluate models on open-source legal corpora including LexGLUE, EUR-Lex, and ILDC, covering statutory tagging, judicial outcome prediction, and case retrieval tasks. Metrics include accuracy, recall at k, mean reciprocal rank (MRR), and normalized discounted cumulative gain (nDCG), alongside throughput measured in tokens per second and maximum context length. Results show that Mamba's linear scaling enables processing of legal documents several times longer than transformers, while maintaining or surpassing retrieval and classification performance. This study introduces a new legal NLP benchmark suite for long-context modeling, along with open-source code and datasets to support reproducibility. Our findings highlight trade-offs between state-space models and transformers, providing guidance for deploying scalable legal AI in statutory analysis, judicial decision support, and policy research.
- Abstract(参考訳): 法定コーパスと司法判断の急速な成長は、非常に長い文脈で分類と検索が可能なスケーラブルな法定AIシステムを必要とする。
トランスフォーマーベースのアーキテクチャ(例えば、Longformer、DeBERTa)は、現在の合法的なNLPベンチマークを支配しているが、2次的な注意のコストに悩まされており、効率とスケーラビリティが制限されている。
本研究では,線形時間選択機構を持つ状態空間モデル(SSM)であるMambaを,法定分類と事例法検索のための主要な変圧器モデルに対して,初めて包括的なベンチマークを行った。
我々は、LexGLUE、EUR-Lex、ILDCを含むオープンソース法定コーパスのモデルを評価し、法定タグ付け、司法結果予測、ケース検索タスクについて検討した。
メトリクスには精度、kでのリコール、平均相互ランク(MRR)、正規化割引累積ゲイン(nDCG)、秒単位のトークンと最大コンテキスト長のスループットが含まれる。
以上の結果から,マンバの線形スケーリングはトランスフォーマーよりも数倍長くなるが,検索性能や分類性能は維持・超越していることがわかった。
本研究では、長期コンテキストモデリングのための新しい法的NLPベンチマークスイートと、再現性をサポートするためのオープンソースコードとデータセットを紹介する。
我々の発見は、国家空間モデルとトランスフォーマーのトレードオフを強調し、法定分析、司法決定支援、政策研究にスケーラブルな法的AIを展開するためのガイダンスを提供する。
関連論文リスト
- AI for Statutory Simplification: A Comprehensive State Legal Corpus and Labor Benchmark [5.268588811689132]
アメリカ合衆国のある州は、AIを使って州のコードの3分の1を削除したと主張している。
この領域でAI機能を評価するためのベンチマークデータセットであるLaborBenchを紹介します。
論文 参考訳(メタデータ) (2025-08-26T18:53:39Z) - RLJP: Legal Judgment Prediction via First-Order Logic Rule-enhanced with Large Language Models [58.69183479148083]
法的判断予測(LJP)は、法的AIにおいて重要な課題である。
既存のLJPモデルは、高いパフォーマンスのために司法上の前例と法的な知識を統合している。
しかし彼らは、厳密な論理分析を必要とする法的判断の重要な要素である法的推論論理を無視している。
本稿では、一階述語論理(FOL)形式と比較学習(CL)に基づく規則強化された法的判断予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T14:50:21Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - Exploring Training and Inference Scaling Laws in Generative Retrieval [50.82554729023865]
生成検索は、検索を自己回帰生成タスクとして再構成し、大きな言語モデルがクエリから直接ターゲット文書を生成する。
生成的検索におけるトレーニングと推論のスケーリング法則を体系的に検討し,モデルのサイズ,トレーニングデータスケール,推論時間計算が協調的に性能に与える影響について検討した。
論文 参考訳(メタデータ) (2025-03-24T17:59:03Z) - LegalAgentBench: Evaluating LLM Agents in Legal Domain [53.70993264644004]
LegalAgentBenchは、中国の法律領域でLLMエージェントを評価するために特別に設計されたベンチマークである。
LegalAgentBenchには、現実世界の法的シナリオから17のコーパスが含まれており、外部知識と対話するための37のツールを提供している。
論文 参考訳(メタデータ) (2024-12-23T04:02:46Z) - Bayesian scaling laws for in-context learning [72.17734205418502]
In-context Learning(ICL)は、言語モデルをトレーニング更新なしで複雑なタスクを実行するための強力なテクニックである。
我々は、ICCがベイズ学習者を近似し、ICCのための新しいベイズスケーリング法則のファミリーを開発することを示す。
論文 参考訳(メタデータ) (2024-10-21T21:45:22Z) - Enhancing Legal Case Retrieval via Scaling High-quality Synthetic Query-Candidate Pairs [67.54302101989542]
判例検索は、ある事実記述の参照として類似した事例を提供することを目的としている。
既存の作業は主に、長いクエリを使ったケース・ツー・ケースの検索に重点を置いている。
データスケールは、既存のデータハングリーニューラルネットワークのトレーニング要件を満たすには不十分である。
論文 参考訳(メタデータ) (2024-10-09T06:26:39Z) - LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - CaseEncoder: A Knowledge-enhanced Pre-trained Model for Legal Case
Encoding [15.685369142294693]
CaseEncoderは、データサンプリングと事前トレーニングフェーズの両方において、きめ細かい法的な知識を活用する法律文書エンコーダである。
CaseEncoderは、ゼロショットの判例検索において、既存の一般的な事前訓練モデルと法律固有の事前訓練モデルの両方を著しく上回っている。
論文 参考訳(メタデータ) (2023-05-09T12:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。