論文の概要: NOWJ@COLIEE 2025: A Multi-stage Framework Integrating Embedding Models and Large Language Models for Legal Retrieval and Entailment
- arxiv url: http://arxiv.org/abs/2509.08025v1
- Date: Tue, 09 Sep 2025 12:05:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.20885
- Title: NOWJ@COLIEE 2025: A Multi-stage Framework Integrating Embedding Models and Large Language Models for Legal Retrieval and Entailment
- Title(参考訳): NOWJ@COLIEE 2025: 法的検索と詳細のための埋め込みモデルと大規模言語モデルを統合する多段階フレームワーク
- Authors: Hoang-Trung Nguyen, Tan-Minh Nguyen, Xuan-Bach Le, Tuan-Kiet Le, Khanh-Huyen Nguyen, Ha-Thanh Nguyen, Thi-Hai-Yen Vuong, Le-Minh Nguyen,
- Abstract要約: 本稿では,COLIEE 2025コンペティションにおけるNOWJチームの5つの課題すべてへの参加について述べる。
包括的アプローチでは、プレグレードモデル、埋め込みベースのセマンティック表現、大規模言語モデル、コンテキスト再ランクが統合されます。
タスク2では,2段階検索システムに語彙・意味的フィルタリングと文脈的LLM分析を併用し,F1スコア0.3195で1位となった。
- 参考スコア(独自算出の注目度): 14.409912985674994
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents the methodologies and results of the NOWJ team's participation across all five tasks at the COLIEE 2025 competition, emphasizing advancements in the Legal Case Entailment task (Task 2). Our comprehensive approach systematically integrates pre-ranking models (BM25, BERT, monoT5), embedding-based semantic representations (BGE-m3, LLM2Vec), and advanced Large Language Models (Qwen-2, QwQ-32B, DeepSeek-V3) for summarization, relevance scoring, and contextual re-ranking. Specifically, in Task 2, our two-stage retrieval system combined lexical-semantic filtering with contextualized LLM analysis, achieving first place with an F1 score of 0.3195. Additionally, in other tasks--including Legal Case Retrieval, Statute Law Retrieval, Legal Textual Entailment, and Legal Judgment Prediction--we demonstrated robust performance through carefully engineered ensembles and effective prompt-based reasoning strategies. Our findings highlight the potential of hybrid models integrating traditional IR techniques with contemporary generative models, providing a valuable reference for future advancements in legal information processing.
- Abstract(参考訳): 本稿では,COLIEE 2025コンペティションにおけるNOWJチームの5つの課題すべてへの参加の方法論と成果について述べる。
我々の包括的アプローチは,事前階調モデル (BM25,BERT, monoT5), 埋め込みに基づく意味表現 (BGE-m3, LLM2Vec), および高度な大規模言語モデル (Qwen-2, QwQ-32B, DeepSeek-V3) を体系的に統合して, 要約, 関連性評価, 文脈再評価を行う。
具体的には,第2タスクにおいて,2段階検索システムと文脈的LLM分析を併用し,F1スコア0.3195で1位となった。
さらに, 法律ケース検索, 法令検索, 法律テキスト検索, 法的判断予測などを含むタスクにおいて, 慎重に設計されたアンサンブルと効果的なプロンプトに基づく推論戦略を通じて, 堅牢なパフォーマンスを実証した。
本研究は,従来のIR手法を現代生成モデルと統合したハイブリッドモデルの可能性を強調し,今後の法情報処理の進歩に有意義な言及を提供するものである。
関連論文リスト
- KAT-V1: Kwai-AutoThink Technical Report [50.84483585850113]
Kwaipilot-AutoThink (KAT) はオープンソースの40B大言語モデルであり、推論集約タスクにおける過大な問題に対処するために開発された。
KATはタスクの複雑さに基づいて推論モードと非推論モードを動的に切り替える。
また、GRPOフレームワークに中間管理を組み込んだ強化学習アルゴリズムであるStep-SRPOを提案する。
論文 参考訳(メタデータ) (2025-07-11T04:07:10Z) - Aplicação de Large Language Models na Análise e Síntese de Documentos Jurídicos: Uma Revisão de Literatura [0.0]
大規模言語モデル (LLMs) は、法的文書の分析と合成を最適化するためにますます使われている。
本研究の目的は,LLMに適用された技術の現状を法的文脈で把握するために,系統的な文献レビューを行うことである。
論文 参考訳(メタデータ) (2025-04-01T12:34:00Z) - JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - Towards Unsupervised Question Answering System with Multi-level Summarization for Legal Text [0.0]
本稿では,SCaLARチームによるSemEval-2024 Task 5: Legal Argument Reasoning in Civil procedureについて要約する。
ラベルを生成するための,単純ながら斬新な類似性と距離に基づく教師なしアプローチを提案する。
調査では, マクロF1スコアが20ポイント上昇し, テストセットが10ポイント上昇した。
論文 参考訳(メタデータ) (2024-03-19T19:15:13Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - NOWJ1@ALQAC 2023: Enhancing Legal Task Performance with Classic
Statistical Models and Pre-trained Language Models [4.329463429688995]
本稿では,NOWJ1チームによるALQAC(Automated Legal Question Answering Competition)2023について述べる。
文書検索タスクでは、入力制限を克服し、学習からランクまでの手法を適用して様々なモデルの特徴を統合する。
我々は,従来の統計モデルと事前学習型言語モデルの両方を利用して,各サブタスクに対して異なるシステムを開発するために,最先端のモデルを組み込んだ。
論文 参考訳(メタデータ) (2023-09-16T18:32:15Z) - THUIR@COLIEE 2023: Incorporating Structural Knowledge into Pre-trained
Language Models for Legal Case Retrieval [16.191450092389722]
本稿では,COLIEE 2023におけるチャンピオンシップチームTHUIRのアプローチを要約する。
具体的には,訴訟の理解を深めるために,構造化された事前学習言語モデルを設計する。
最終的に、異なる次元の機能をマージするために、学習とランクの手法が使用される。
論文 参考訳(メタデータ) (2023-05-11T14:08:53Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。