論文の概要: Towards Robust Legal Reasoning: Harnessing Logical LLMs in Law
- arxiv url: http://arxiv.org/abs/2502.17638v1
- Date: Mon, 24 Feb 2025 20:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:23:34.057353
- Title: Towards Robust Legal Reasoning: Harnessing Logical LLMs in Law
- Title(参考訳): ロバストな法理推論に向けて:法における論理的LLMの調和
- Authors: Manuj Kant, Sareh Nabi, Manav Kant, Roland Scharrer, Megan Ma, Marzieh Nabi,
- Abstract要約: 大規模言語モデル(LLM)は将来性を示すが、法的文脈におけるそれらの応用には高い精度、再現性、透明性が必要である。
本稿では,LLMの自然言語理解と論理に基づく推論を統合したニューロシンボリックアプローチを提案する。
法律文書ケーススタディとして,保険契約のカバレッジ関連クエリにニューロシンボリックAIを適用した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Legal services rely heavily on text processing. While large language models (LLMs) show promise, their application in legal contexts demands higher accuracy, repeatability, and transparency. Logic programs, by encoding legal concepts as structured rules and facts, offer reliable automation, but require sophisticated text extraction. We propose a neuro-symbolic approach that integrates LLMs' natural language understanding with logic-based reasoning to address these limitations. As a legal document case study, we applied neuro-symbolic AI to coverage-related queries in insurance contracts using both closed and open-source LLMs. While LLMs have improved in legal reasoning, they still lack the accuracy and consistency required for complex contract analysis. In our analysis, we tested three methodologies to evaluate whether a specific claim is covered under a contract: a vanilla LLM, an unguided approach that leverages LLMs to encode both the contract and the claim, and a guided approach that uses a framework for the LLM to encode the contract. We demonstrated the promising capabilities of LLM + Logic in the guided approach.
- Abstract(参考訳): 法律サービスはテキスト処理に大きく依存している。
大きな言語モデル(LLM)は将来性を示すが、法的文脈におけるそれらの応用には高い精度、再現性、透明性が必要である。
論理プログラムは、法的概念を構造化された規則や事実として符号化することで、信頼性の高い自動化を提供するが、洗練されたテキスト抽出が必要である。
本稿では,LLMの自然言語理解と論理に基づく推論を統合し,これらの制約に対処するニューロシンボリックアプローチを提案する。
法律文書ケーススタディとして, クローズドおよびオープンソース両方のLCMを用いて, 保険契約のカバレッジ関連クエリにニューロシンボリックAIを適用した。
LLMは法的な推論において改善されているが、複雑な契約分析に必要な正確さと一貫性は依然として欠如している。
本分析では,契約下で特定の請求項がカバーされているかどうかを評価するための3つの手法を検証した。バニラLPM,契約書と請求書の両方をエンコードする無ガイドアプローチ,契約書をエンコードするためにLLMのフレームワークを使用するガイドアプローチである。
我々は LLM + Logic の有望な能力をガイドされたアプローチで実証した。
関連論文リスト
- Logical Lease Litigation: Prolog and LLMs for Rental Law Compliance in New York [0.30693357740321775]
本稿では,ニューヨーク州における地主訴訟の分析を自動化するための新しいアプローチとシステムであるLogicLeaseを提案する。
LogicLeaseは、ケース記述を分析し、関連するすべての法律を引用することによって、関連する法的要件の遵守を決定する。
我々は、LogicLeaseの精度、効率、堅牢性を一連のテストで評価し、100%の精度と平均処理時間2.57秒を実現した。
論文 参考訳(メタデータ) (2025-02-13T11:45:38Z) - CRANE: Reasoning with constrained LLM generation [5.971462597321995]
制約付きデコードアルゴリズムであるCRANEを提案し,制約付き生成の正しさと制約なし生成の柔軟性のバランスをとる。
CRANEは最先端の制約付き復号化戦略と標準の制約なし復号化戦略の両方を大きく上回っている。
論文 参考訳(メタデータ) (2025-02-13T08:23:42Z) - Logical Consistency of Large Language Models in Fact-checking [6.286017217366497]
大規模言語モデル(LLM)は、様々な自然言語タスクを実行する上で大きな成功を収めている。
人間のようなテキストを生成する素晴らしい能力にもかかわらず、LLMは一貫性のない反応で悪名高い。
論文 参考訳(メタデータ) (2024-12-20T17:42:25Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Caveat Lector: Large Language Models in Legal Practice [0.0]
大規模な言語モデルへの関心は、多くのユーザーが生成したテキストの品質を評価するための専門知識を欠いているという事実から来ている。
急流と表面的可視性の危険な組み合わせは、生成されたテキストを信頼する誘惑を招き、過信のリスクを生じさせる。
論文 参考訳(メタデータ) (2024-03-14T08:19:41Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - LawBench: Benchmarking Legal Knowledge of Large Language Models [35.2812008533622]
大規模言語モデル(LLM)は様々な面で強力な能力を示している。
法的知識がどの程度あるか、そして法的関連タスクを確実に実行できるかは不明だ。
ローベンチは、3つの認知レベルからLLMの法的な能力を正確に評価するために細心の注意を払って設計されている。
論文 参考訳(メタデータ) (2023-09-28T09:35:59Z) - DoLa: Decoding by Contrasting Layers Improves Factuality in Large
Language Models [79.01926242857613]
大型言語モデル(LLM)は幻覚を起こす傾向があり、事前訓練中に見られる事実から逸脱した内容を生成する。
事前学習したLLMによる幻覚を低減するための簡単な復号法を提案する。
コントラスティング・レイヤ(DoLa)アプローチによるこのデコーディングは,事実知識をよりよく提示し,誤った事実の生成を減らすことができる。
論文 参考訳(メタデータ) (2023-09-07T17:45:31Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。