論文の概要: JurisCTC: Enhancing Legal Judgment Prediction via Cross-Domain Transfer and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2504.17264v1
- Date: Thu, 24 Apr 2025 05:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.26028
- Title: JurisCTC: Enhancing Legal Judgment Prediction via Cross-Domain Transfer and Contrastive Learning
- Title(参考訳): JurisCTC:クロスドメイン転送とコントラスト学習による法的判断の促進
- Authors: Zhaolu Kang, Hongtian Cai, Xiangyang Ji, Jinzhe Li, Nanfei Gu,
- Abstract要約: 本稿では,法的判断予測(LJP)タスクの精度向上を目的とした新しいモデルであるJurisCTCを提案する。
既存のアプローチとは異なり、JurisCTCは様々な法律ドメインを横断する効果的な知識伝達を促進し、異なるドメインのサンプルを区別するために対照的な学習を採用している。
LJPタスクでは,民法ドメインと刑事法ドメイン間の知識伝達を可能にする。他のモデルや特定大言語モデル(LLM)と比較して,JurisCTCは顕著な進歩を示し,それぞれ76.59%,78.83%のピーク精度を達成した。
- 参考スコア(独自算出の注目度): 39.88752683510745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Unsupervised Domain Adaptation (UDA) has gained significant attention in the field of Natural Language Processing (NLP) owing to its ability to enhance model generalization across diverse domains. However, its application for knowledge transfer between distinct legal domains remains largely unexplored. To address the challenges posed by lengthy and complex legal texts and the limited availability of large-scale annotated datasets, we propose JurisCTC, a novel model designed to improve the accuracy of Legal Judgment Prediction (LJP) tasks. Unlike existing approaches, JurisCTC facilitates effective knowledge transfer across various legal domains and employs contrastive learning to distinguish samples from different domains. Specifically, for the LJP task, we enable knowledge transfer between civil and criminal law domains. Compared to other models and specific large language models (LLMs), JurisCTC demonstrates notable advancements, achieving peak accuracies of 76.59% and 78.83%, respectively.
- Abstract(参考訳): 近年,Unsupervised Domain Adaptation (UDA) が自然言語処理(NLP)分野において注目されている。
しかし、異なる法域間の知識伝達の応用については、ほとんど未解明のままである。
長大かつ複雑な法的テキストと大規模注釈付きデータセットの可用性の制限による課題に対処するため,法定判断予測(LJP)タスクの精度向上を目的とした新しいモデルであるJurisCTCを提案する。
既存のアプローチとは異なり、JurisCTCは様々な法律ドメインを横断する効果的な知識伝達を促進し、異なるドメインのサンプルを区別するために対照的な学習を採用している。
具体的には, LJPタスクにおいて, 民法と刑事法ドメイン間の知識伝達を可能にする。
他のモデルやLLMと比較して、JurisCTCは顕著な進歩を示し、それぞれ76.59%と78.83%のピーク精度を達成した。
関連論文リスト
- LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - Empowering Prior to Court Legal Analysis: A Transparent and Accessible Dataset for Defensive Statement Classification and Interpretation [5.646219481667151]
本稿では,裁判所の手続きに先立って,警察の面接中に作成された文の分類に適した新しいデータセットを提案する。
本稿では,直感的文と真偽を区別し,最先端のパフォーマンスを実現するための微調整DistilBERTモデルを提案する。
我々はまた、法律専門家と非専門主義者の両方がシステムと対話し、利益を得ることを可能にするXAIインターフェースも提示する。
論文 参考訳(メタデータ) (2024-05-17T11:22:27Z) - Beyond Borders: Investigating Cross-Jurisdiction Transfer in Legal Case Summarization [2.9612936741643705]
判例要約モデルの断続的一般化性について検討する。
具体的には、参照要約ができない対象の司法管轄区域の訴訟を効果的に要約する方法を検討する。
論文 参考訳(メタデータ) (2024-03-28T11:18:31Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Leveraging Large Language Models for Relevance Judgments in Legal Case Retrieval [18.058942674792604]
本稿では,訴訟の関連判断に適した新規な数ショットワークフローを提案する。
LLMと人的専門家の関連判断を比較することで,信頼性の高い関連判断が得られたことを実証的に示す。
論文 参考訳(メタデータ) (2024-03-27T09:46:56Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。