論文の概要: THUIR@COLIEE 2023: Incorporating Structural Knowledge into Pre-trained
Language Models for Legal Case Retrieval
- arxiv url: http://arxiv.org/abs/2305.06812v1
- Date: Thu, 11 May 2023 14:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 14:42:08.994472
- Title: THUIR@COLIEE 2023: Incorporating Structural Knowledge into Pre-trained
Language Models for Legal Case Retrieval
- Title(参考訳): THUIR@COLIEE 2023: 判例検索のための事前学習言語モデルに構造知識を組み込む
- Authors: Haitao Li, Weihang Su, Changyue Wang, Yueyue Wu, Qingyao Ai, Yiqun Liu
- Abstract要約: 本稿では,COLIEE 2023におけるチャンピオンシップチームTHUIRのアプローチを要約する。
具体的には,訴訟の理解を深めるために,構造化された事前学習言語モデルを設計する。
最終的に、異なる次元の機能をマージするために、学習とランクの手法が使用される。
- 参考スコア(独自算出の注目度): 16.191450092389722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Legal case retrieval techniques play an essential role in modern intelligent
legal systems. As an annually well-known international competition, COLIEE is
aiming to achieve the state-of-the-art retrieval model for legal texts. This
paper summarizes the approach of the championship team THUIR in COLIEE 2023. To
be specific, we design structure-aware pre-trained language models to enhance
the understanding of legal cases. Furthermore, we propose heuristic
pre-processing and post-processing approaches to reduce the influence of
irrelevant messages. In the end, learning-to-rank methods are employed to merge
features with different dimensions. Experimental results demonstrate the
superiority of our proposal. Official results show that our run has the best
performance among all submissions. The implementation of our method can be
found at https://github.com/CSHaitao/THUIR-COLIEE2023.
- Abstract(参考訳): 判例検索技術は、現代のインテリジェントな法的システムにおいて重要な役割を果たす。
毎年有名な国際競争として、COLIEEは法律テキストの最先端検索モデルの実現を目指している。
本稿では,COLIEE 2023におけるチャンピオンシップチームTHUIRのアプローチを要約する。
具体的には,訴訟の理解を深めるために,構造化された事前学習言語モデルを設計する。
さらに,無関係メッセージの影響を低減するため,ヒューリスティックな前処理および後処理手法を提案する。
最終的に、異なる次元の機能をマージするために、学習とランクの手法が使用される。
実験の結果,提案の優位性を示した。
公式の結果は、私たちの実行がすべての投稿の中で最高のパフォーマンスを示している。
本手法の実装はhttps://github.com/CSHaitao/THUIR-COLIEE2023で確認できる。
関連論文リスト
- DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews [51.453135368388686]
本稿では,大規模言語モデル (LLM) によって実質的に修正あるいは生成される可能性のある大規模コーパスにおけるテキストの分数推定手法を提案する。
我々の最大可能性モデルは、専門家による参照テキストとAIによる参照テキストを利用して、コーパスレベルでの実世界のLLM使用を正確かつ効率的に検証する。
論文 参考訳(メタデータ) (2024-03-11T21:51:39Z) - CAPTAIN at COLIEE 2023: Efficient Methods for Legal Information
Retrieval and Entailment Tasks [7.0271825812050555]
本稿では,COLIEE 2023コンペティションにおけるタスク2,タスク3,タスク4の対応戦略について概説する。
提案手法は,最先端のディープラーニング手法の活用,ドメイン特性の観察に基づく手法の設計,厳密なエンジニアリングプラクティスと方法論を競争に適用することであった。
論文 参考訳(メタデータ) (2024-01-07T17:23:27Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - NOWJ1@ALQAC 2023: Enhancing Legal Task Performance with Classic
Statistical Models and Pre-trained Language Models [4.329463429688995]
本稿では,NOWJ1チームによるALQAC(Automated Legal Question Answering Competition)2023について述べる。
文書検索タスクでは、入力制限を克服し、学習からランクまでの手法を適用して様々なモデルの特徴を統合する。
我々は,従来の統計モデルと事前学習型言語モデルの両方を利用して,各サブタスクに対して異なるシステムを開発するために,最先端のモデルを組み込んだ。
論文 参考訳(メタデータ) (2023-09-16T18:32:15Z) - NOWJ at COLIEE 2023 -- Multi-Task and Ensemble Approaches in Legal
Information Processing [1.5593460008414899]
我々は,法情報処理技術の進歩に焦点を当てたCOLIEE 2023コンペティションへのNOWJチームのアプローチを提示する。
我々は、最先端の機械学習モデルとBERT、Longformer、BM25級アルゴリズム、マルチタスク学習モデルといった革新的なアプローチを採用している。
論文 参考訳(メタデータ) (2023-06-08T03:10:49Z) - THUIR@COLIEE 2023: More Parameters and Legal Knowledge for Legal Case
Entailment [16.191450092389722]
本稿は, COLIEE 2023 Legal Case Entailment TaskにおけるTHUIRチームのアプローチについて述べる。
従来の語彙マッチング手法と,異なる大きさの事前学習言語モデルを試す。
第3位はCOLIEE 2023です。
論文 参考訳(メタデータ) (2023-05-11T14:11:48Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - Understand Legal Documents with Contextualized Large Language Models [16.416510744265086]
本稿では,SemEval-2023タスク6について,法的テキストの理解について述べる。
我々はまず,文内および文間両方の包括的文脈情報を考慮した法-BERT-HSLNモデルを開発した。
次に、法的なエンティティを認識するために、法的なコンテキスト化とエンティティ認識を備えた法的なLUKEモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-03-21T18:48:11Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。