論文の概要: LegalLens Shared Task 2024: Legal Violation Identification in Unstructured Text
- arxiv url: http://arxiv.org/abs/2410.12064v1
- Date: Tue, 15 Oct 2024 21:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:44:09.334010
- Title: LegalLens Shared Task 2024: Legal Violation Identification in Unstructured Text
- Title(参考訳): 条例共有2024条:非構造化テキストにおける法律違反識別
- Authors: Ben Hagag, Liav Harpaz, Gil Semo, Dor Bernsohn, Rohit Saha, Pashootan Vaezipoor, Kyryl Truskovskyi, Gerasimos Spanakis,
- Abstract要約: 本稿では,2つのサブタスクにまたがって,テキスト中の法的違反を検出することに焦点を当てた。
トップパフォーマンスチームはベースラインよりもNERが7.11%改善し、NLIは5.7%改善した。
- 参考スコア(独自算出の注目度): 7.839638824275218
- License:
- Abstract: This paper presents the results of the LegalLens Shared Task, focusing on detecting legal violations within text in the wild across two sub-tasks: LegalLens-NER for identifying legal violation entities and LegalLens-NLI for associating these violations with relevant legal contexts and affected individuals. Using an enhanced LegalLens dataset covering labor, privacy, and consumer protection domains, 38 teams participated in the task. Our analysis reveals that while a mix of approaches was used, the top-performing teams in both tasks consistently relied on fine-tuning pre-trained language models, outperforming legal-specific models and few-shot methods. The top-performing team achieved a 7.11% improvement in NER over the baseline, while NLI saw a more marginal improvement of 5.7%. Despite these gains, the complexity of legal texts leaves room for further advancements.
- Abstract(参考訳): 本稿では,2つのサブタスクにまたがる,野生のテキスト中の法的違反を検出することに焦点を当て,法的な違反を識別するLegalLens-NERと,これらの違反を関連する法的文脈と関連づけるLegalLens-NLIについて述べる。
労働、プライバシー、消費者保護ドメインをカバーする強化されたLegalLensデータセットを使用して、38チームがこのタスクに参加した。
我々の分析によると、様々なアプローチが用いられたが、両方のタスクにおけるトップパフォーマンスチームは、常に微調整された事前訓練された言語モデルに頼っていた。
トップパフォーマンスチームはベースラインよりもNERが7.11%改善し、NLIは5.7%改善した。
これらの利益にもかかわらず、法的文書の複雑さはさらなる進歩の余地を残している。
関連論文リスト
- LegalSeg: Unlocking the Structure of Indian Legal Judgments Through Rhetorical Role Classification [6.549338652948716]
7000以上の文書と140万の文で構成され、7つの修辞的な役割をラベル付けした、このタスクのための最大の注釈付きデータセットであるLegalSegを紹介します。
以上の結果から,より広義の文脈,構造的関係,逐次的な文情報を含むモデルが,文レベルの特徴にのみ依存するモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-09T10:07:05Z) - LegalAgentBench: Evaluating LLM Agents in Legal Domain [53.70993264644004]
LegalAgentBenchは、中国の法律領域でLLMエージェントを評価するために特別に設計されたベンチマークである。
LegalAgentBenchには、現実世界の法的シナリオから17のコーパスが含まれており、外部知識と対話するための37のツールを提供している。
論文 参考訳(メタデータ) (2024-12-23T04:02:46Z) - Bonafide at LegalLens 2024 Shared Task: Using Lightweight DeBERTa Based Encoder For Legal Violation Detection and Resolution [1.2283121128307906]
我々は、構造化されていないテキストデータ内の法的違反を検出するための2つのシステム、名前付きエンティティ解決(NER)と自然言語推論(NLI)を提案する。
どちらのシステムも軽量のDeBERTaベースのエンコーダで、LCMのベースラインを上回っている。
論文 参考訳(メタデータ) (2024-10-30T12:42:38Z) - Augmenting Legal Decision Support Systems with LLM-based NLI for Analyzing Social Media Evidence [0.0]
本稿は,NLLP 2024におけるL-NLI(Lawal Natural Language Inference)の共有タスクのシステム記述とエラー解析について述べる。
このタスクは、レビューと苦情の関連性を示す、関係を関連づけられ、矛盾し、中立的なものに分類することを必要とした。
当システムでは, 勝訴として出現し, 他の項目を著しく上回り, 法的テキスト分析におけるアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-10-21T13:20:15Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - LawInstruct: A Resource for Studying Language Model Adaptation to the Legal Domain [47.001169623840354]
58の注釈付き法律データセットを集約し、それぞれに命令を書き、LawInstructを作成します。
ローインストラクチャーは17の国際司法管轄区域、24の言語、および法的QA、訴訟の要約、法的議論のマイニングなど様々なタスクにまたがる1200万の事例をカバーしている。
Flan-T5(FLawN-T5)の法的な命令チューニングは、すべてのモデルサイズでLegalBenchのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-04-02T17:33:34Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - LegalBench: A Collaboratively Built Benchmark for Measuring Legal
Reasoning in Large Language Models [15.98468948605927]
LegalBenchは6種類の法的推論をカバーする162のタスクからなるベンチマークである。
本稿では、LegalBenchについて述べるとともに、20のオープンソースおよび商用LCMの実証的な評価を行い、LegalBenchがもたらす研究のタイプについて説明する。
論文 参考訳(メタデータ) (2023-08-20T22:08:03Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - SemEval 2023 Task 6: LegalEval - Understanding Legal Texts [2.172613863157655]
法律文書の処理と自動理解のためのNLPベースの技術を開発する必要がある。
Task-A (Rhetorical Roles Labeling) は、法的文書を意味的に一貫性のある単位に自動的に構造化することを目的としており、Task-B (Legal Named Entity Recognition) は、法的文書内の関連エンティティを識別する、Task-C (Court Judgement Prediction with Explanation) は、訴訟の結果を自動的に予測する可能性を探る。
それぞれのサブタスクにおいて、提案されたシステムはベースラインよりも優れているが、多くのスコープがある。
論文 参考訳(メタデータ) (2023-04-19T10:28:32Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。