論文の概要: Legal Syllogism Prompting: Teaching Large Language Models for Legal
Judgment Prediction
- arxiv url: http://arxiv.org/abs/2307.08321v1
- Date: Mon, 17 Jul 2023 08:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:15:23.157689
- Title: Legal Syllogism Prompting: Teaching Large Language Models for Legal
Judgment Prediction
- Title(参考訳): 法的シロジズムの促進: 法的判断予測のための大規模言語モデル教育
- Authors: Cong Jiang and Xiaolei Yang
- Abstract要約: LoT(Lawal syllogism prompting)は、法的な判断の予測のために大きな言語モデルを教える単純なプロンプト法である。
LoTは法的なシロジズムにおいて、主要な前提は法であり、小さな前提は事実であり、結論は判断である、とのみ教えている。
以上の結果から, LoT を用いた LLM は,思考のベースラインや連鎖よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Legal syllogism is a form of deductive reasoning commonly used by legal
professionals to analyze cases. In this paper, we propose legal syllogism
prompting (LoT), a simple prompting method to teach large language models
(LLMs) for legal judgment prediction. LoT teaches only that in the legal
syllogism the major premise is law, the minor premise is the fact, and the
conclusion is judgment. Then the models can produce a syllogism reasoning of
the case and give the judgment without any learning, fine-tuning, or examples.
On CAIL2018, a Chinese criminal case dataset, we performed zero-shot judgment
prediction experiments with GPT-3 models. Our results show that LLMs with LoT
achieve better performance than the baseline and chain of thought prompting,
the state-of-art prompting method on diverse reasoning tasks. LoT enables the
model to concentrate on the key information relevant to the judgment and to
correctly understand the legal meaning of acts, as compared to other methods.
Our method enables LLMs to predict judgment along with law articles and
justification, which significantly enhances the explainability of models.
- Abstract(参考訳): 法的シルロジズム(英: legal syllogism)は、法律専門家がケースを分析するのによく使う演法的推論の一形態である。
本稿では,大言語モデル(LLM)を法的な判断予測のために簡易に指導する法的なシロジズム促進法 (LoT) を提案する。
LoTは法的なシロジズムにおいて、主要な前提は法であり、小さな前提は事実であり、結論は判断である、とのみ教えている。
すると、モデルはケースのシロジズム推論を生成し、学習、微調整、例を使わずに判断を下すことができる。
中国の犯罪事例データセットCAIL2018において,GPT-3モデルを用いてゼロショット判定予測実験を行った。
その結果,多種多様な推論タスクに対する最先端のプロンプト手法である思考プロンプトのベースラインとチェーンよりも,llmの性能が向上した。
LoTは、モデルが判断に関連する重要な情報に集中し、他の方法と比較して、行為の法的意味を正しく理解することを可能にする。
本手法により,LLMは法則や正当化とともに判断を予測でき,モデルの説明可能性を大幅に向上させることができる。
関連論文リスト
- Artificial Intelligence and Legal Analysis: Implications for Legal Education and the Profession [0.0]
本稿では,法的および非法的大規模言語モデルが法的解析を行う能力について検討した結果を報告する。
その結果, LLMは基本的なIRAC分析を行うことができるが, 詳細を欠いた短時間の応答, 回答にコミットできないこと, 虚偽の自信, 幻覚によって制限されることがわかった。
論文 参考訳(メタデータ) (2025-02-04T19:50:48Z) - Beyond Guilt: Legal Judgment Prediction with Trichotomous Reasoning [12.589047235741194]
Innocent Verdicts を用いた法的な判断予測のための最初のベンチマークデータセット LJPIV を紹介する。
LLMに基づく拡張と手作業による検証により,3つの広く使用されている法的データセットを拡張した。
現状の法的LLMと, トリコトミー推論をゼロショット・プロンプトと微調整に組み込んだ新たな戦略による実験により, 1) 現行の法的LLMには改善の余地があり, 最高のモデルでさえも, LJPIVのF1スコアが0.3未満であることがわかった。
論文 参考訳(メタデータ) (2024-12-19T07:14:13Z) - Legal Evalutions and Challenges of Large Language Models [42.51294752406578]
我々は,OPENAI o1モデルを事例研究として,法律規定の適用における大規模モデルの性能評価に利用した。
我々は、オープンソース、クローズドソース、および法律ドメインのために特別に訓練された法律固有のモデルを含む、最先端のLLMを比較します。
論文 参考訳(メタデータ) (2024-11-15T12:23:12Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。