論文の概要: CaseEncoder: A Knowledge-enhanced Pre-trained Model for Legal Case
Encoding
- arxiv url: http://arxiv.org/abs/2305.05393v1
- Date: Tue, 9 May 2023 12:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 12:48:34.364522
- Title: CaseEncoder: A Knowledge-enhanced Pre-trained Model for Legal Case
Encoding
- Title(参考訳): CaseEncoder: 判例エンコーディングのための知識強化事前訓練モデル
- Authors: Yixiao Ma, Yueyue Wu, Weihang Su, Qingyao Ai, Yiqun Liu
- Abstract要約: CaseEncoderは、データサンプリングと事前トレーニングフェーズの両方において、きめ細かい法的な知識を活用する法律文書エンコーダである。
CaseEncoderは、ゼロショットの判例検索において、既存の一般的な事前訓練モデルと法律固有の事前訓練モデルの両方を著しく上回っている。
- 参考スコア(独自算出の注目度): 15.685369142294693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legal case retrieval is a critical process for modern legal information
systems. While recent studies have utilized pre-trained language models (PLMs)
based on the general domain self-supervised pre-training paradigm to build
models for legal case retrieval, there are limitations in using general domain
PLMs as backbones. Specifically, these models may not fully capture the
underlying legal features in legal case documents. To address this issue, we
propose CaseEncoder, a legal document encoder that leverages fine-grained legal
knowledge in both the data sampling and pre-training phases. In the data
sampling phase, we enhance the quality of the training data by utilizing
fine-grained law article information to guide the selection of positive and
negative examples. In the pre-training phase, we design legal-specific
pre-training tasks that align with the judging criteria of relevant legal
cases. Based on these tasks, we introduce an innovative loss function called
Biased Circle Loss to enhance the model's ability to recognize case relevance
in fine grains. Experimental results on multiple benchmarks demonstrate that
CaseEncoder significantly outperforms both existing general pre-training models
and legal-specific pre-training models in zero-shot legal case retrieval.
- Abstract(参考訳): 判例検索は現代の法律情報システムにとって重要なプロセスである。
近年の研究では、一般ドメインの自己指導型事前学習パラダイムに基づく事前学習言語モデル(PLM)を用いて、訴訟検索のためのモデルを構築しているが、一般ドメインのPLMをバックボーンとして使用するには制限がある。
特に、これらのモデルは、訴訟書類の根拠となる法的特徴を完全には捉えないかもしれない。
この問題に対処するため,データサンプリングと事前学習の両段階において,詳細な法的知識を活用する法定文書エンコーダであるCaseEncoderを提案する。
このデータサンプリングフェーズでは,詳細な法律記事情報を利用して,正と負の事例の選択を導くことにより,トレーニングデータの質を向上させる。
事前訓練段階では,関連する訴訟の判定基準に合致する法律固有の事前訓練タスクを設計する。
これらの課題に基づき,粒度が小さい場合を識別するモデルの能力を高めるために,バイアス付き円損失と呼ばれる革新的な損失関数を導入する。
複数のベンチマークによる実験結果から、CaseEncoderは、ゼロショットの判例検索において、既存の一般事前学習モデルと法固有の事前学習モデルの両方を著しく上回っていることが示された。
関連論文リスト
- PILOT: Legal Case Outcome Prediction with Case Law [47.718204353667026]
判例法を用いて判例結果の予測を行う際の2つのユニークな課題を同定する。
第一に、意思決定において裁判官の基本的な証拠となる関連する前例を特定することが重要である。
第二に、初期の事例は異なる法的文脈に従う可能性があるため、時間とともに法原則の進化を考慮する必要がある。
論文 参考訳(メタデータ) (2024-01-28T21:18:05Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Automated Refugee Case Analysis: An NLP Pipeline for Supporting Legal
Practitioners [0.0]
本稿では,訴訟から対象情報を検索,処理,抽出するためのエンドツーエンドパイプラインを提案する。
カナダにおける難民法を事例として,未研究の法域を調査した。
論文 参考訳(メタデータ) (2023-05-24T19:37:23Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - Legal Element-oriented Modeling with Multi-view Contrastive Learning for
Legal Case Retrieval [3.909749182759558]
本稿では,多視点コントラスト学習目標を用いた訴訟検索のための対話型ネットワークを提案する。
ケースビューコントラスト学習は、関連する訴訟表現の間の隠れた空間距離を最小化する。
ケースの法的な要素を検出するために、法的な要素の知識を意識した指標を用いています。
論文 参考訳(メタデータ) (2022-10-11T06:47:23Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - On the Fairness of 'Fake' Data in Legal AI [0.0]
異なる影響の概念と、トレーニングデータのバイアスが、より公正なAIの探索にどのように寄与するかを検討する。
偏りのあるデータの修正に事前処理がどのように使われているのかを概説し, より公平な結果を得るために, 効果的に変化する事例の法的意味について検討する。
論文 参考訳(メタデータ) (2020-09-10T02:23:19Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。