論文の概要: Sufficient reasons for classifier decisions in the presence of
constraints
- arxiv url: http://arxiv.org/abs/2105.06001v1
- Date: Wed, 12 May 2021 23:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:51:00.441633
- Title: Sufficient reasons for classifier decisions in the presence of
constraints
- Title(参考訳): 制約の存在下での分類決定の十分な理由
- Authors: Niku Gorji, Sasha Rubin
- Abstract要約: 最近の研究では、二項分類器による決定を推論する理論が明らかにされている。
我々は制約を考慮したより一般的な理論を提案する。
私たちは、この単純なアイデアが(時にはもっと)簡潔な理由をもたらすことを証明します。
- 参考スコア(独自算出の注目度): 9.525900373779395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has unveiled a theory for reasoning about the decisions made by
binary classifiers: a classifier describes a Boolean function, and the reasons
behind an instance being classified as positive are the prime-implicants of the
function that are satisfied by the instance. One drawback of these works is
that they do not explicitly treat scenarios where the underlying data is known
to be constrained, e.g., certain combinations of features may not exist, may
not be observable, or may be required to be disregarded. We propose a more
general theory, also based on prime-implicants, tailored to taking constraints
into account. The main idea is to view classifiers in the presence of
constraints as describing partial Boolean functions, i.e., that are undefined
on instances that do not satisfy the constraints. We prove that this simple
idea results in reasons that are no less (and sometimes more) succinct. That
is, not taking constraints into account (e.g., ignored, or taken as negative
instances) results in reasons that are subsumed by reasons that do take
constraints into account. We illustrate this improved parsimony on synthetic
classifiers and classifiers learned from real data.
- Abstract(参考訳): 分類器はブール関数を記述し、正に分類されるインスタンスの背後にある理由は、そのインスタンスによって満足される関数の素実装である。
これらの作業の欠点の1つは、基礎となるデータが制約されていることが分かっているシナリオを明示的に扱っていないことである。
我々は、制約を考慮に入れようとして、素実装にもとづくより一般的な理論を提案する。
主なアイデアは、制約の存在下で分類子を部分ブール関数、すなわち制約を満たさないインスタンスで定義されていない関数を記述するものとして見ることである。
この単純なアイデアが、それ以上(時にはそれ以上)簡潔な理由をもたらすことを証明します。
すなわち、制約を考慮に入れない(例えば、無視したり、負のインスタンスとして捉える)ことは、制約を考慮に入れている理由によって仮定される理由をもたらす。
実データから学習した合成分類器と分類器について,この改良手法について述べる。
関連論文リスト
- Abductive explanations of classifiers under constraints: Complexity and properties [6.629765271909503]
制約を考慮に入れた3つの新しいタイプの説明を提案する。
それらは、機能空間全体から、あるいはデータセットから生成できる。
我々は、冗長で過剰なAXpを捨てるには、カバレッジが十分であることを示す。
論文 参考訳(メタデータ) (2024-09-18T17:15:39Z) - ConstraintChecker: A Plugin for Large Language Models to Reason on
Commonsense Knowledge Bases [53.29427395419317]
コモンセンス知識ベース(CSKB)に対する推論は,新しいコモンセンス知識を取得する方法として検討されてきた。
我々は**ConstraintChecker*を提案します。
論文 参考訳(メタデータ) (2024-01-25T08:03:38Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Counterfactual Explanations for Oblique Decision Trees: Exact, Efficient
Algorithms [0.0]
我々は、ソース入力インスタンスにおける特徴を最小に調整して、与えられた分類の下で対象クラスに分類する問題である、反事実的説明を考える。
これは、トレーニングされたモデルをクエリし、決定を覆す可能性のあるアクションを提案する手段として、最近の関心事となっている。
論文 参考訳(メタデータ) (2021-03-01T16:04:33Z) - Logic Embeddings for Complex Query Answering [56.25151854231117]
skolemisationを用いて効率的なクエリのための存在変数を排除する、複雑なクエリを組み込む新しいアプローチであるlogic embeddedsを提案する。
論理組込みは,大規模で不完全な知識グラフ上でのクエリ応答において競争的に高速かつ正確であり,否定的問合せよりも優れており,特に回答の不確かさのモデリングが向上している。
論文 参考訳(メタデータ) (2021-02-28T07:52:37Z) - On Irrelevant Literals in Pseudo-Boolean Constraint Learning [21.506382989223784]
関連するリテラルが、本来よりも弱い制約を推論する可能性があることを示す。
これは、切断平面に基づくpbソルバの現在の実装は、無関係リテラルの発生を防止するために再検討されるべきであることを示唆している。
論文 参考訳(メタデータ) (2020-12-08T13:52:09Z) - Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs [89.51365993393787]
知識グラフ(KG)上で任意のFOLクエリに応答する確率的埋め込みフレームワークであるBetaEを紹介する。
BetaEは、一階述語論理演算の完全なセットを処理できる最初のメソッドである。
大規模かつ不完全な3つのKG上での任意のFOLクエリ応答におけるBetaEの性能を示す。
論文 参考訳(メタデータ) (2020-10-22T06:11:39Z) - Tractable Inference in Credal Sentential Decision Diagrams [116.6516175350871]
確率感性決定図は、解離ゲートの入力が確率値によってアノテートされる論理回路である。
我々は、局所確率を質量関数のクレーダル集合に置き換えることができる確率の一般化である、クレーダル感性決定図を開発する。
まず,ノイズの多い7セグメント表示画像に基づく簡単なアプリケーションについて検討する。
論文 参考訳(メタデータ) (2020-08-19T16:04:34Z) - On The Reasons Behind Decisions [11.358487655918676]
意思決定の背後にある十分な、必要な、完全な理由といった概念を定義します。
これらの概念は, 対実的ステートメントの評価にどのように用いられるかを示す。
これらの概念を計算するための効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-21T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。