論文の概要: Defeasible Conditionals using Answer Set Programming
- arxiv url: http://arxiv.org/abs/2601.03840v1
- Date: Wed, 07 Jan 2026 12:05:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.486417
- Title: Defeasible Conditionals using Answer Set Programming
- Title(参考訳): 解集合プログラミングを用いた定義可能な条件
- Authors: Racquel Dennison, Jesse Heyninck, Thomas Meyer,
- Abstract要約: 本稿では、解答集合プログラミング(ASP)を用いた論理閉包(RC)の宣言的定義を提案する。
提案手法は,与えられた知識ベースから最小ランクのモデルを自動的に構築し,特定のクエリに対するエンタテインメントチェックを支援する。
- 参考スコア(独自算出の注目度): 10.254243409261901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Defeasible entailment is concerned with drawing plausible conclusions from incomplete information. A foundational framework for modelling defeasible entailment is the KLM framework. Introduced by Kraus, Lehmann, and Magidor, the KLM framework outlines several key properties for defeasible entailment. One of the most prominent algorithms within this framework is Rational Closure (RC). This paper presents a declarative definition for computing RC using Answer Set Programming (ASP). Our approach enables the automatic construction of the minimal ranked model from a given knowledge base and supports entailment checking for specified queries. We formally prove the correctness of our ASP encoding and conduct empirical evaluations to compare the performance of our implementation with that of existing imperative implementations, specifically the InfOCF solver. The results demonstrate that our ASP-based approach adheres to RC's theoretical foundations and offers improved computational efficiency.
- Abstract(参考訳): 決定可能な包含は、不完全な情報からもっともらしい結論を引き出すことに関係している。
実現不可能なエンターテイメントをモデル化するための基本的なフレームワークは、KLMフレームワークである。
Kraus氏、Lehmann氏、Magidor氏によって紹介されたKLMフレームワークは、デファシブルエンターメントのためのいくつかの重要な特性を概説している。
このフレームワークで最も顕著なアルゴリズムの1つはRational Closure (RC)である。
本稿では,ASP(Answer Set Programming)を用いたRCの宣言的定義を提案する。
提案手法は,与えられた知識ベースから最小ランクのモデルを自動的に構築し,特定のクエリに対するエンタテインメントチェックを支援する。
我々はASPエンコーディングの正しさを正式に証明し、実装の性能を既存の命令型実装、特にInfOCFソルバと比較するための実証的な評価を行う。
その結果,我々のASPベースのアプローチはRCの理論的基礎に固執し,計算効率を向上することを示した。
関連論文リスト
- SSR: Socratic Self-Refine for Large Language Model Reasoning [78.62319252287938]
Socratic Self-Refine (SSR)は、大規模言語モデル(LLM)のきめ細かい評価と精度向上のための新しいフレームワークである。
提案したSSRはモデル応答を検証可能な(サブクエスト,サブサブアンサー)ペアに分解し,ステップレベルの信頼度推定を可能にする。
5つの推論ベンチマークと3つのLCMによる実証的な結果から、SSRは一貫して最先端の反復的自己修正ベースラインを上回っていることが分かる。
論文 参考訳(メタデータ) (2025-11-13T18:47:07Z) - Efficient and Reliable Hitting-Set Computations for the Implicit Hitting Set Approach [11.039737232955039]
暗黙的なヒットセット(IHS)アプローチは、計算的にハードな最適化問題を解決するための一般的なフレームワークを提供する。
我々は、擬似ブール推論(PB)を用いた様々な手法に基づいて、集合最適化を打つための代替アルゴリズムについて検討する。
PB推論によってインスタンス化された正確なHS計算は、数値的に正確なIPソルバと競合できることを示す。
論文 参考訳(メタデータ) (2025-08-09T15:27:36Z) - Computational Reasoning of Large Language Models [51.629694188014064]
textbfTuring Machine Benchは,Large Language Models(LLM)による推論プロセスの実行能力を評価するベンチマークである。
TMBenchには、自己完結型および知識に依存しない推論、最小主義的な多段階構造、制御可能な難易度、チューリングマシンに基づく理論的基礎の4つの重要な特徴が組み込まれている。
論文 参考訳(メタデータ) (2025-04-29T13:52:47Z) - BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - StructTest: Benchmarking LLMs' Reasoning through Compositional Structured Outputs [78.84060166851805]
StructTestは、大規模な言語モデル(LLM)を合成命令に従って構造化出力を生成する能力に基づいて評価する、新しいベンチマークである。
評価はルールベースの評価器を用いて決定的に行われ、新しいタスクやデータセットに容易に拡張できる。
StructTestは、Deepseek-V3/R1やGPT-4oといったトップパフォーマンスモデルでも、依然として難しいままです。
論文 参考訳(メタデータ) (2024-12-23T22:08:40Z) - BPP-Search: Enhancing Tree of Thought Reasoning for Mathematical Modeling Problem Solving [11.596474985695679]
我々は、完全な数学的モデリングプロセスをキャプチャする包括的ラベルを付したStructuredORデータセットをリリースする。
本稿では,強化学習をツリー・オブ・シント構造に統合するアルゴリズムであるBPP-Searchを提案する。
論文 参考訳(メタデータ) (2024-11-26T13:05:53Z) - SEER: Facilitating Structured Reasoning and Explanation via Reinforcement Learning [29.514755268807868]
構造的推論と説明を容易にする構造的回帰を最大化する新しい手法であるSEERを提案する。
提案手法は構造的推論に固有の階層構造と分岐構造を正確に記述する。
実験の結果,SEERは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-01-24T06:10:51Z) - LRA: an accelerated rough set framework based on local redundancy of
attribute for feature selection [81.19294803707648]
ラフセットアルゴリズムを高速化するLRAフレームワークを提案する。
このフレームワークは、ほとんど全ての粗いセットメソッドに適用できる汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-10-31T08:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。