論文の概要: Compliance checking in reified IO logic via SHACL
- arxiv url: http://arxiv.org/abs/2110.07033v1
- Date: Wed, 13 Oct 2021 21:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 08:28:42.814705
- Title: Compliance checking in reified IO logic via SHACL
- Title(参考訳): SHACLによる改良IOロジックのコンプライアンスチェック
- Authors: Livio Robaldo and Kolawole J. Adebayo
- Abstract要約: Reified Input/Output (I/O) logic[21]は、[11]の論理の観点で現実世界の規範をモデル化するために最近提案されている。
本稿では,I/O 論理式を改訂した上でコンプライアンスチェックを行う手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reified Input/Output (I/O) logic[21] has been recently proposed to model
real-world norms in terms of the logic in [11]. This is massively grounded on
the notion of reification, and it has specifically designed to model meaning of
natural language sentences, such as the ones occurring in existing legislation.
This paper presents a methodology to carry out compliance checking on reified
I/O logic formulae. These are translated in SHACL (Shapes Constraint Language)
shapes, a recent W3C recommendation to validate and reason with RDF
triplestores. Compliance checking is then enforced by validating RDF graphs
describing states of affairs with respect to these SHACL shapes.
- Abstract(参考訳): reified input/output (i/o) logic[21]は[11]の論理の観点から実世界のノルムをモデル化するために最近提案されている。
これは改定の概念に大きく根ざしており、既存の法律で発生したような自然言語文の意味をモデル化するよう特別に設計されている。
本稿では,I/O 論理式に対するコンプライアンスチェックを行う手法を提案する。
これらはSHACL(Shapes Constraint Language)形式で翻訳され、最近のW3CではRDFトリプルストアの検証と推論が推奨されている。
次に、これらのSHACL形状に関する状況を記述するRDFグラフを検証することでコンプライアンスチェックを実施する。
関連論文リスト
- FVEL: Interactive Formal Verification Environment with Large Language Models via Theorem Proving [53.43068330741449]
大規模言語モデル(LLM)を用いた対話型形式検証環境FVELを提案する。
FVELは、検証対象のコードをIsabelleに変換し、LLMで証明された神経自動定理を用いて検証を行う。
FVELERデータセットには、Isabelleで定式化されたコード依存関係と検証プロセスが含まれており、758の理論、29,125のレムマ、200,646の証明ステップが含まれている。
論文 参考訳(メタデータ) (2024-06-20T15:31:05Z) - SHACL2FOL: An FOL Toolkit for SHACL Decision Problems [0.4895118383237099]
我々は、SHACL文書をFOL文に変換する最初の自動ツールであるSHACL2FOLを紹介する。
このツールは、満足度と包含性の2つの静的解析問題に対する解を計算する。
また、一連の制約に関してグラフの有効性をテストすることもできる。
論文 参考訳(メタデータ) (2024-06-12T09:20:25Z) - Log Probabilities Are a Reliable Estimate of Semantic Plausibility in Base and Instruction-Tuned Language Models [50.15455336684986]
意味的妥当性を評価するため,LogProbsの有効性と基本的なプロンプトを評価した。
LogProbsは、直接ゼロショットプロンプトよりも、より信頼性の高いセマンティックな妥当性を提供する。
我々は,プロンプトベースの評価の時代においても,LogProbsは意味的妥当性の有用な指標である,と結論付けた。
論文 参考訳(メタデータ) (2024-03-21T22:08:44Z) - A Chain-of-Thought Is as Strong as Its Weakest Link: A Benchmark for Verifiers of Reasoning Chains [33.46649770312231]
ステップバイステップの回答を提供するために言語モデルを実証することは、複雑な推論タスクにおいて顕著なアプローチである。
このような検証方法の徹底的な評価を可能にするための、きめ細かいステップレベルのデータセットは提供されていない。
ReVEAL: Reasoning Verification Evaluationは複雑なチェーン・オブ・ソート推論の自動検証をベンチマークするデータセットである。
論文 参考訳(メタデータ) (2024-02-01T12:46:45Z) - Factcheck-Bench: Fine-Grained Evaluation Benchmark for Automatic Fact-checkers [121.53749383203792]
本稿では,大規模言語モデル (LLM) 生成応答の事実性に注釈を付けるための総合的なエンドツーエンドソリューションを提案する。
オープンドメインの文書レベルの事実性ベンチマークを,クレーム,文,文書の3段階の粒度で構築する。
予備実験によると、FacTool、FactScore、Perplexityは虚偽の主張を識別するのに苦労している。
論文 参考訳(メタデータ) (2023-11-15T14:41:57Z) - Semantic Role Labeling Meets Definition Modeling: Using Natural Language
to Describe Predicate-Argument Structures [104.32063681736349]
本稿では,離散ラベルの代わりに自然言語定義を用いて述語-代名詞構造を記述する手法を提案する。
PropBankスタイルおよびFrameNetスタイル、依存性ベースおよびスパンベースSRLに関する実験と分析は、解釈可能な出力を持つフレキシブルモデルが必ずしも性能を犠牲にしないことを示す。
論文 参考訳(メタデータ) (2022-12-02T11:19:16Z) - RobustLR: Evaluating Robustness to Logical Perturbation in Deductive
Reasoning [25.319674132967553]
トランスフォーマーは、英語の自然言語で書かれた規則や文を含む論理ルールベースで演能的推論を実行できることが示されている。
本稿では,ルールベースにおける最小論理編集に対して,これらのモデルのロバスト性を評価するためにロバストLRを提案する。
先行研究で訓練されたモデルは、ロバストLRの異なる摂動に対して一貫して動作しないことがわかった。
論文 参考訳(メタデータ) (2022-05-25T09:23:50Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Stateless and Rule-Based Verification For Compliance Checking
Applications [1.7403133838762452]
本稿では,インテリジェントなコンプライアンスチェックシステムを構築するための形式的な論理ベースのフレームワークを提案する。
SARVは、ステートレスおよびルールベースの検証問題の全体的な検証プロセスを単純化するために設計された検証フレームワークである。
300のデータ実験に基づいて、SARVベースのコンプライアンスソリューションは、3125レコードのソフトウェア品質データセット上で機械学習メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-04-14T17:31:33Z) - A Review of SHACL: From Data Validation to Schema Reasoning for RDF
Graphs [3.274290296343038]
本稿では,RDFデータ検証のためのW3Cレコメンデーション言語であるShapes Constraint Language (SHACL)の紹介とレビューを行う。
SHACL文書はRDFノード上の一連の制約を記述しており、ノードがこれらの制約を満たす場合、グラフは文書に対して有効である。
論文 参考訳(メタデータ) (2021-12-02T17:28:45Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。