論文の概要: Automated legal reasoning with discretion to act using s(LAW)
- arxiv url: http://arxiv.org/abs/2401.14511v1
- Date: Thu, 25 Jan 2024 21:11:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:38:43.386779
- Title: Automated legal reasoning with discretion to act using s(LAW)
- Title(参考訳): s(law)を用いた行為を判断する自動法的推論
- Authors: Joaqu\'in Arias, Mar Moreno-Rebato, Jos\'e A. Rodr\'iguez-Garc\'ia,
Sascha Ossowski
- Abstract要約: 倫理的および法的懸念は、自動化された推論者が人間の理解可能な言葉で正当化する必要がある。
パターンのセットに従って曖昧な概念をモデル化するために、ASPを述語するためのトップダウン実行モデルであるs(CASP)を使うことを提案する。
我々は、s(LAW)と呼ばれるフレームワークを実装して、適用可能な法律をモデル化、理由付け、正当化し、代表的なユースケースを翻訳(およびベンチマーク)することでそれを検証しました。
- 参考スコア(独自算出の注目度): 0.294944680995069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated legal reasoning and its application in smart contracts and
automated decisions are increasingly attracting interest. In this context,
ethical and legal concerns make it necessary for automated reasoners to justify
in human-understandable terms the advice given. Logic Programming, specially
Answer Set Programming, has a rich semantics and has been used to very
concisely express complex knowledge. However, modelling discretionality to act
and other vague concepts such as ambiguity cannot be expressed in top-down
execution models based on Prolog, and in bottom-up execution models based on
ASP the justifications are incomplete and/or not scalable. We propose to use
s(CASP), a top-down execution model for predicate ASP, to model vague concepts
following a set of patterns. We have implemented a framework, called s(LAW), to
model, reason, and justify the applicable legislation and validate it by
translating (and benchmarking) a representative use case, the criteria for the
admission of students in the "Comunidad de Madrid".
- Abstract(参考訳): スマートコントラクトや自動決定における法律推論の自動化とその適用は、ますます関心を集めている。
この文脈では、倫理的および法的な懸念により、自動推論者がアドバイスを人間に理解しやすい言葉で正当化する必要がある。
論理プログラミング、特に解集合プログラミングは、豊富な意味論を持ち、非常に簡潔に複雑な知識を表現するために使われてきた。
しかし、actやあいまいさなどの曖昧な概念に対するモデリングの判断性は、prologに基づくトップダウン実行モデルでは表現できず、aspに基づいたボトムアップ実行モデルでは、正当化は不完全であり、スケーラブルではない。
パターンのセットに従って曖昧な概念をモデル化するために、ASPを述語するためのトップダウン実行モデルであるs(CASP)を使うことを提案する。
我々は,s(law)と呼ばれる枠組みを実装し,適用法をモデル化,理論化,正当化し,代表的ユースケースであるコミュニダード・デ・マドリードの学生の入学基準を翻訳(およびベンチマーク)することで検証した。
関連論文リスト
- Relating Answer Set Programming and Many-sorted Logics for Formal Verification [1.223779595809275]
私の研究課題は、ASP検証をアクセス可能で日常的なタスクにする意図で、3つの問題に対処することに集中しています。
ASP の代替セマンティクスを,この辺りで多種多様な一階述語論理の論理への変換に基づいて検討した。
これらのセマンティクスは、論理プログラムのモジュラー理解を促進し、基底をバイパスし、自動定理プロバーを使用してプログラムのプロパティを自動検証することを可能にする。
論文 参考訳(メタデータ) (2025-02-13T11:52:40Z) - Instantiation-based Formalization of Logical Reasoning Tasks using Language Models and Logical Solvers [4.897782942277061]
本稿では,SSV(Semantic Self-Verification)を導入し,自然言語から解法の形式言語への推論問題を正確に定式化する手法を提案する。
SSVは一貫性に基づくアプローチを用いて、モデルによって生成され、解決者によって検証される具体的なインスタンス化を用いて、問題の強力な抽象的な形式化を生成する。
このような*ほぼ確実な推論*は、多くの場合、手動検証の必要性を減らすための新しいアプローチとして提案され、より信頼性が高く自律的なAI推論システムに近づきます。
論文 参考訳(メタデータ) (2025-01-28T14:04:49Z) - LogicGame: Benchmarking Rule-Based Reasoning Abilities of Large Language Models [87.49676980090555]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示し、複雑な問題解決能力を示している。
LLMの包括的なルール理解、実行、計画能力を評価するために設計された新しいベンチマークであるLogicGameを紹介する。
論文 参考訳(メタデータ) (2024-08-28T13:16:41Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Deontic Paradoxes in ASP with Weak Constraints [0.0]
弱い制約を利用して、よく知られたデオンのパラドックスをエンコードし、解決する方法を示す。
本稿では,制約の弱いASPにおける規範的システムを翻訳する手法を提案する。
この手法はパックマンの「倫理的」バージョンに適用され、関連する作品と同等のパフォーマンスを得るが、倫理的に好ましい結果を得る。
論文 参考訳(メタデータ) (2023-08-30T08:56:54Z) - 'Put the Car on the Stand': SMT-based Oracles for Investigating
Decisions [4.170056099990699]
最小限の仮定の下では、自動推論はアルゴリズムの振る舞いを厳格に問うことができることを示す。
我々は、検証やレビューボードなどの説明責任プロセスを、非現実的な論理探索や抽象リファインメントループとしてモデル化する。
われわれのフレームワークを実装し、その実用性を実証的な自動車事故のシナリオで実証する。
論文 参考訳(メタデータ) (2023-05-09T19:23:47Z) - Modelling Multi-Agent Epistemic Planning in ASP [66.76082318001976]
本稿では,マルチショット・アンサー・セット・プログラミング・ベース・プランナの実装について述べる。
本稿は, アドホックなエピステミック状態表現とASPソルバの効率を生かしたプランナーが, 文献から収集したベンチマークに対して, 競合的な性能を示すことを示す。
論文 参考訳(メタデータ) (2020-08-07T06:35:56Z) - Modelling Value-oriented Legal Reasoning in LogiKEy [0.0]
LogiKEyは、対話的かつ自動化された定理証明技術を利用して、法的ドメイン固有言語や理論の開発と形式的検証を行うためのテストベッドを提供する。
我々は、知識表現における最新の研究と、非古典論理学における推論、自動定理証明、および法的推論における応用の間の新しい橋渡しを確立する。
論文 参考訳(メタデータ) (2020-06-23T06:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。