論文の概要: Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents
- arxiv url: http://arxiv.org/abs/2105.03887v1
- Date: Sun, 9 May 2021 09:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:03:00.167951
- Title: Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents
- Title(参考訳): ローフォーマー:中国の法律文書のための事前訓練された言語モデル
- Authors: Chaojun Xiao, Xueyu Hu, Zhiyuan Liu, Cunchao Tu, Maosong Sun
- Abstract要約: 我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
- 参考スコア(独自算出の注目度): 56.40163943394202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Legal artificial intelligence (LegalAI) aims to benefit legal systems with
the technology of artificial intelligence, especially natural language
processing (NLP). Recently, inspired by the success of pre-trained language
models (PLMs) in the generic domain, many LegalAI researchers devote their
effort to apply PLMs to legal tasks. However, utilizing PLMs to address legal
tasks is still challenging, as the legal documents usually consist of thousands
of tokens, which is far longer than the length that mainstream PLMs can
process. In this paper, we release the Longformer-based pre-trained language
model, named as Lawformer, for Chinese legal long documents understanding. We
evaluate Lawformer on a variety of LegalAI tasks, including judgment
prediction, similar case retrieval, legal reading comprehension, and legal
question answering. The experimental results demonstrate that our model can
achieve promising improvement on tasks with long documents as inputs.
- Abstract(参考訳): 法律人工知能(LegalAI)は、人工知能、特に自然言語処理(NLP)の技術により、法体系の恩恵を受けることを目的としている。
近年、ジェネリックドメインにおける事前学習言語モデル(PLM)の成功に触発されて、多くの LegalAI 研究者が法的タスクに PLM を適用する取り組みに取り組んだ。
しかし、法律文書は通常数千のトークンで構成されており、主流のplmが処理できる期間よりもはるかに長いため、plmを法的タスクに利用することは依然として困難である。
本稿では,中国法定長文理解のためのLongformer-based pre-trained language model,Lawformer をリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
実験結果から,本モデルでは,長い文書を入力としてタスクに対して有望な改善を達成できることが示された。
関連論文リスト
- LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - It Cannot Be Right If It Was Written by AI: On Lawyers' Preferences of Documents Perceived as Authored by an LLM vs a Human [0.6827423171182154]
大きな言語モデル(LLM)は、ある種類の法律文書を自動的に生成する未来を可能にする。
この研究は、成熟した生成AIシステムへの継続的な移行の必要な分析である。
我々の分析では、AIによって生成されたと考えられるものよりも、人間によって作成されたと考えられる文書が明らかに好まれていた。
論文 参考訳(メタデータ) (2024-07-09T12:11:25Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Legal Documents Drafting with Fine-Tuned Pre-Trained Large Language Model [1.3812010983144798]
本稿では,中国語の分節化を伴わずに多数の注釈のない法律文書を活用でき,大規模言語モデルを微調整できることを示す。
また、法的文書草案作成作業も達成でき、同時に情報プライバシーの保護と情報セキュリティ問題の改善も達成できる。
論文 参考訳(メタデータ) (2024-06-06T16:00:20Z) - Large Language Models in Law: A Survey [34.785207813971134]
法的大規模言語モデル(LLM)の適用は、まだ初期段階にある。
法分野におけるAI技術の概観と,LLMにおける最近の研究成果を紹介する。
我々は、データ、アルゴリズム、司法実務を含む法的LLMの制限について検討する。
論文 参考訳(メタデータ) (2023-11-26T00:48:12Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Large Language Models as Tax Attorneys: A Case Study in Legal
Capabilities Emergence [5.07013500385659]
本稿では,税法の適用におけるLarge Language Models(LLM)の機能について考察する。
実験では,その後のOpenAIモデルリリースにおけるパフォーマンスの向上とともに,新たな法的理解能力を実証した。
発見は、特に拡張の促進と正しい法的文書と組み合わせることで、高いレベルの精度で実行可能であるが、専門家の税務弁護士レベルではまだ実行できないことを示している。
論文 参考訳(メタデータ) (2023-06-12T12:40:48Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - A Short Survey of Viewing Large Language Models in Legal Aspect [0.0]
大規模言語モデル(LLM)は、自然言語処理、コンピュータビジョン、強化学習など、多くの分野に変化をもたらした。
LLMの法的分野への統合は、プライバシーの懸念、偏見、説明可能性など、いくつかの法的問題を引き起こしている。
論文 参考訳(メタデータ) (2023-03-16T08:01:22Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。