論文の概要: Logical Lease Litigation: Prolog and LLMs for Rental Law Compliance in New York
- arxiv url: http://arxiv.org/abs/2502.09204v1
- Date: Thu, 13 Feb 2025 11:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:44:56.679685
- Title: Logical Lease Litigation: Prolog and LLMs for Rental Law Compliance in New York
- Title(参考訳): 論理的リース緩和:ニューヨークにおけるレンタル法コンプライアンスのためのプロログとLLM
- Authors: Sanskar Sehgal, Yanhong A. Liu,
- Abstract要約: 本稿では,ニューヨーク州における地主訴訟の分析を自動化するための新しいアプローチとシステムであるLogicLeaseを提案する。
LogicLeaseは、ケース記述を分析し、関連するすべての法律を引用することによって、関連する法的要件の遵守を決定する。
我々は、LogicLeaseの精度、効率、堅牢性を一連のテストで評価し、100%の精度と平均処理時間2.57秒を実現した。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: Legal cases require careful logical reasoning following the laws, whereas interactions with non- technical users must be in natural language. As an application combining logical reasoning using Prolog and natural language processing using large language models (LLMs), this paper presents a novel approach and system, LogicLease, to automate the analysis of landlord-tenant legal cases in the state of New York. LogicLease determines compliance with relevant legal requirements by analyzing case descriptions and citing all relevant laws. It leverages LLMs for information extraction and Prolog for legal reasoning. By separating information extraction from legal reasoning, LogicLease achieves greater transparency and control over the legal logic applied to each case. We evaluate the accuracy, efficiency, and robustness of LogicLease through a series of tests, achieving 100% accuracy and an average processing time of 2.57 seconds. LogicLease presents advantages over state-of-the-art LLM- based legal analysis systems by providing clear, step-by-step reasoning, citing specific laws, and distinguishing itself by its ability to avoid hallucinations - a common issue in LLMs.
- Abstract(参考訳): 法律の場合、法律に従って慎重な論理的推論を必要とするが、非技術ユーザーとの相互作用は自然言語でなければならない。
本稿では,Prologを用いた論理的推論と大規模言語モデル(LLM)を用いた自然言語処理を組み合わせたアプリケーションとして,ニューヨーク州における地主訴訟の分析を自動化するための新しいアプローチとシステムであるLogicLeaseを提案する。
LogicLeaseは、ケース記述を分析し、関連するすべての法律を引用することによって、関連する法的要件の遵守を決定する。
LLMを情報抽出に利用し、Prologを法的な推論に利用している。
LogicLeaseは、法的推論からの情報抽出を分離することにより、各ケースに適用される法論理の透明性と制御を向上する。
我々は、LogicLeaseの精度、効率、堅牢性を一連のテストで評価し、100%の精度と平均処理時間2.57秒を実現した。
LogicLeaseは、LLMの一般的な問題である幻覚を避ける能力によって、明確でステップバイステップの推論を提供し、特定の法則を引用し、自分自身を区別することで、最先端のLLMベースの法解析システムに対する利点を提示している。
関連論文リスト
- Logical Consistency of Large Language Models in Fact-checking [6.286017217366497]
大規模言語モデル(LLM)は、様々な自然言語タスクを実行する上で大きな成功を収めている。
人間のようなテキストを生成する素晴らしい能力にもかかわらず、LLMは一貫性のない反応で悪名高い。
論文 参考訳(メタデータ) (2024-12-20T17:42:25Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Logic Rules as Explanations for Legal Case Retrieval [9.240902132139187]
本稿では,ケースレベルの論理則と法レベルの論理則を学習することで,訴訟の一致を推論する枠組みを提案する。
論理則の論理性と解釈性から、NS-LCRは忠実な説明性を備えている。
論文 参考訳(メタデータ) (2024-03-03T09:22:21Z) - Do Large Language Models Understand Logic or Just Mimick Context? [14.081178100662163]
本稿では,2つの論理的推論データセット上での大規模言語モデル(LLM)の推論能力について検討する。
LLMは論理規則を真に理解していないことが判明した。むしろ、文脈内学習は、これらのモデルが正しい解に到達する可能性を高めている。
論文 参考訳(メタデータ) (2024-02-19T12:12:35Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。