論文の概要: Counterfactual Explanation Generation with s(CASP)
- arxiv url: http://arxiv.org/abs/2310.14497v1
- Date: Mon, 23 Oct 2023 02:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:08:38.759483
- Title: Counterfactual Explanation Generation with s(CASP)
- Title(参考訳): s(CASP)を用いた実測的説明生成
- Authors: Sopam Dasgupta, Farhad Shakerin, Joaqu\'in Arias, Elmer Salazar, Gopal
Gupta
- Abstract要約: 意思決定を自動化する機械学習モデルは、ローンの承認、プレトライアルの保釈、雇用など、連続した分野での利用が増えている。
残念なことに、これらのモデルのほとんどはブラックボックス(ブラックボックス)である。
本稿では, 逆実説明を自動生成する後者の問題に焦点をあてる。
- 参考スコア(独自算出の注目度): 2.249916681499244
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models that automate decision-making are increasingly being
used in consequential areas such as loan approvals, pretrial bail, hiring, and
many more. Unfortunately, most of these models are black-boxes, i.e., they are
unable to reveal how they reach these prediction decisions. A need for
transparency demands justification for such predictions. An affected individual
might desire explanations to understand why a decision was made. Ethical and
legal considerations may further require informing the individual of changes in
the input attribute that could be made to produce a desirable outcome. This
paper focuses on the latter problem of automatically generating counterfactual
explanations. Our approach utilizes answer set programming and the s(CASP)
goal-directed ASP system. Answer Set Programming (ASP) is a well-known
knowledge representation and reasoning paradigm. s(CASP) is a goal-directed ASP
system that executes answer-set programs top-down without grounding them. The
query-driven nature of s(CASP) allows us to provide justifications as proof
trees, which makes it possible to analyze the generated counterfactual
explanations. We show how counterfactual explanations are computed and
justified by imagining multiple possible worlds where some or all factual
assumptions are untrue and, more importantly, how we can navigate between these
worlds. We also show how our algorithm can be used to find the Craig
Interpolant for a class of answer set programs for a failing query.
- Abstract(参考訳): 意思決定を自動化する機械学習モデルは、ローンの承認、プレトライアルの保釈、雇用など、連続した分野での利用が増えている。
残念なことに、これらのモデルのほとんどはブラックボックスであり、これらの予測決定にどのように到達するかを明らかにすることができない。
このような予測を正当化する透明性の必要性。
影響を受ける個人は、なぜ意思決定が行われたのかを理解するために説明を求めるかもしれない。
倫理的および法的考察は、望ましい結果をもたらすことができる入力属性の変化を個人に通知する必要があるかもしれない。
本稿では, 逆実説明を自動生成する後者の問題に焦点をあてる。
提案手法は,応答セットプログラミングと s(CASP) 目標指向ASP システムを利用する。
answer set programming (asp) はよく知られた知識表現と推論パラダイムである。
s(CASP)はゴール指向のASPシステムで、応答セットプログラムをトップダウンで実行します。
s(CASP)のクエリ駆動型の性質は、証明木として正当化を提供することを可能にし、生成した偽物の説明を分析することができる。
反事実的説明は、ある、あるいは全ての事実的仮定が真実でない複数の可能な世界を想像し、さらに重要なことに、これらの世界をいかにナビゲートできるかを想像することによって、どのように計算され、正当化されるかを示す。
また,我々のアルゴリズムを用いて,クエリの失敗に対する応答セットプログラムのクラスに対するCraig Interpolantを見つける方法を示す。
関連論文リスト
- CFGs: Causality Constrained Counterfactual Explanations using goal-directed ASP [1.5749416770494706]
本稿では,CFG(CounterFactual Generation with s(CASP)を提案する。このフレームワークは,目標指向のAnswer Set Programming(ASP)システムs(CASP)を利用して,デファクトな説明を自動的に生成する。
CFGがこれらの世界、すなわち、望ましくない結果を得る最初の状態から、望まれる決定を得る想像された目標状態へどのようにナビゲートするかを示す。
論文 参考訳(メタデータ) (2024-05-24T21:47:58Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - Counterfactual Generation with Answer Set Programming [2.249916681499244]
事実的仮定が変更/変更された世界を想像することで、反事実的説明がどう計算され、正当化されるかを示す。
私たちのフレームワークでは、これらの世界、すなわち、元の世界/scenarioから、望まれないし望ましくない結果が得られる想像の世界/scenarioに、どのようにナビゲートできるかを示します。
論文 参考訳(メタデータ) (2024-02-06T20:39:49Z) - Explaining Explanations in Probabilistic Logic Programming [0.0]
ほとんどのアプローチでは、システムはブラックボックスと見なされており、適切な説明を生成することは困難である。
確率論的論理プログラミング(PLP)は、知識表現のための論理プログラミングと不確実性をモデル化する確率を組み合わせたパラダイムである。
本稿では,証明に「選択表現」をラベル付けした PLP の新しいクエリ駆動推論機構の定義に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-01-30T14:27:37Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Explaining $\mathcal{ELH}$ Concept Descriptions through Counterfactual
Reasoning [3.5323691899538128]
分類を本質的に透過的に行う方法は、記述論理の概念を使用することである。
一つの解決策は、「異なる分類を得るために特徴値をどう変えなければならないか」という疑問に答えるために反事実を用いることである。
論文 参考訳(メタデータ) (2023-01-12T16:06:06Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。