論文の概要: Human Conditional Reasoning in Answer Set Programming
- arxiv url: http://arxiv.org/abs/2311.04412v2
- Date: Sat, 30 Dec 2023 02:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 01:13:01.073180
- Title: Human Conditional Reasoning in Answer Set Programming
- Title(参考訳): 解答集合プログラミングにおける人間の条件推論
- Authors: Chiaki Sakama
- Abstract要約: 我々は,応答集合プログラミングにおけるAC,DA,DC推論を実現する。
本研究では,認知心理学における人的推論課題の形式的特性を考察し,特徴づける。
これらの完了は、AIの常識推論にも適用される。
- 参考スコア(独自算出の注目度): 0.32634122554913997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a conditional sentence "P=>Q" (if P then Q) and respective facts, four
different types of inferences are observed in human reasoning. Affirming the
antecedent (AA) (or modus ponens) reasons Q from P; affirming the consequent
(AC) reasons P from Q; denying the antecedent (DA) reasons -Q from -P; and
denying the consequent (DC) (or modus tollens) reasons -P from -Q. Among them,
AA and DC are logically valid, while AC and DA are logically invalid and often
called logical fallacies. Nevertheless, humans often perform AC or DA as
pragmatic inference in daily life. In this paper, we realize AC, DA and DC
inferences in answer set programming. Eight different types of completion are
introduced and their semantics are given by answer sets. We investigate formal
properties and characterize human reasoning tasks in cognitive psychology.
Those completions are also applied to commonsense reasoning in AI.
- Abstract(参考訳): 条件文"P=>Q"(PならQ)と各事実が与えられた場合、人間の推論では4種類の推論が観察される。
先行 (AA) が P から Q へ、後続 (AC) が Q から、後続 (DA) が -Q から、後続 (DC) が -Q から、後続 (DC) が -P から -Q を否定する。
AA と DC は論理的に有効であるが、AC と DA は論理的に無効であり、しばしば論理的誤りと呼ばれる。
それでも、人間はしばしば日常生活において実用的推論としてacやdaを実行する。
本稿では,応答集合プログラミングにおけるAC,DA,DC推論を実現する。
8種類の異なる補完が導入され、それらの意味論は回答集合によって与えられる。
認知心理学において、形式的性質を調査し、人間の推論課題を特徴付ける。
これらの完了は、AIの常識推論にも適用される。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - A criterion for Artificial General Intelligence: hypothetic-deductive
reasoning, tested on ChatGPT [0.0]
私たちは、高度なAIであるGPT-4が"思考機械"(AGI)として資格を得るためにマスターすべき重要な推論スキルは、仮説に基づく推論である、と論じます。
両タイプの推論に対して簡単なテストを提案し,それらをChatGPTに適用する。
論文 参考訳(メタデータ) (2023-08-05T20:33:13Z) - Reasoning over Logically Interacted Conditions for Question Answering [113.9231035680578]
我々は、論理的に相互作用する条件のリストによって答えが制約される、より困難なタスクについて研究する。
本稿では,この難解な推論タスクのための新しいモデルTReasonerを提案する。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T16:41:39Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - The Price of Selfishness: Conjunctive Query Entailment for ALCSelf is
2ExpTime-hard [11.193504036335503]
論理に基づく知識表現では、クエリ応答は基本的に単に満足度チェックに置き換えられている。
基本記述論理 ALC の知識ベースでは、連結クエリ(CQ)応答の計算複雑性はExpTime-complete であることが知られている。
自己演算子のみによるALCの拡張さえも,CQ含意の複雑さを2ExpTimeに高めることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:12:03Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Counterfactual Variable Control for Robust and Interpretable Question
Answering [57.25261576239862]
ディープニューラルネットワークに基づく質問応答(QA)モデルは、多くの場合、堅牢でも説明もできない。
本稿では、因果推論を用いてQAモデルのこのような突発的な「能力」を検証する。
本稿では,任意のショートカット相関を明示的に緩和する,CVC(Counterfactual Variable Control)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-12T10:09:05Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。