論文の概要: Logic for Explainable AI
- arxiv url: http://arxiv.org/abs/2305.05172v1
- Date: Tue, 9 May 2023 04:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:56:49.061386
- Title: Logic for Explainable AI
- Title(参考訳): 説明可能なAIのための論理
- Authors: Adnan Darwiche
- Abstract要約: 説明可能なAIにおける中心的な探求は、(学習された)分類器による決定を理解することである。
本チュートリアルでは,これらの次元に沿った説明可能性に関する包括的・意味的・計算的理論について論じる。
- 参考スコア(独自算出の注目度): 11.358487655918676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central quest in explainable AI relates to understanding the decisions made
by (learned) classifiers. There are three dimensions of this understanding that
have been receiving significant attention in recent years. The first dimension
relates to characterizing conditions on instances that are necessary and
sufficient for decisions, therefore providing abstractions of instances that
can be viewed as the "reasons behind decisions." The next dimension relates to
characterizing minimal conditions that are sufficient for a decision, therefore
identifying maximal aspects of the instance that are irrelevant to the
decision. The last dimension relates to characterizing minimal conditions that
are necessary for a decision, therefore identifying minimal perturbations to
the instance that yield alternate decisions. We discuss in this tutorial a
comprehensive, semantical and computational theory of explainability along
these dimensions which is based on some recent developments in symbolic logic.
The tutorial will also discuss how this theory is particularly applicable to
non-symbolic classifiers such as those based on Bayesian networks, decision
trees, random forests and some types of neural networks.
- Abstract(参考訳): 説明可能なAIにおける中心的な探求は、(学習された)分類器による決定を理解することである。
この理解には、近年大きな注目を集めている3つの側面がある。
最初の次元は、決定に必要で十分なインスタンスの条件を特徴づけることに関連しており、したがって"決定の背後にある理由"と見なされるインスタンスの抽象化を提供する。
次の次元は、決定に十分な最小条件を特徴付けることに関連するため、決定に無関係なインスタンスの最大側面を特定する。
最後の次元は、決定に必要な最小条件を特徴づけることに関係し、それゆえ、代替決定を与えるインスタンスに対する最小摂動を識別する。
本稿では,近年の記号論理学の発展を基盤とした,説明可能性の包括的,意味論的,計算論的に考察する。
チュートリアルでは、この理論が、ベイズネットワーク、決定木、ランダムフォレスト、およびいくつかのタイプのニューラルネットワークに基づく非記号的分類器に特にどのように適用されるかについても論じる。
関連論文リスト
- On rough mereology and VC-dimension in treatment of decision prediction for open world decision systems [0.0]
新しいオブジェクトが予測された決定値を持つ必要がある場合、オンライン学習は不可欠である。
提案するアプローチは、粗メアロジーの理論に基づいており、集合や概念の理論を必要とする。
我々はこの概念を手続きで適用し、新しいが見えない対象に対する決定を選択する。
論文 参考訳(メタデータ) (2024-06-19T08:22:51Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explaining Random Forests using Bipolar Argumentation and Markov
Networks (Technical Report) [17.9926469947157]
ランダムフォレスト(Random forest)は、さまざまな機械学習問題を解決するために使用できる決定木アンサンブルである。
決定過程を推論するために,議論問題として表現することを提案する。
マルコフネットワークエンコーディングを用いて十分な議論的説明を一般化し、これらの説明の関連性について議論し、文献からの帰納的説明の家族との関係を確立する。
論文 参考訳(メタデータ) (2022-11-21T18:20:50Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Attribute Selection using Contranominal Scales [0.09668407688201358]
形式的概念分析(FCA)は、概念を導出して格子に並べることでバイナリデータを解析することができる。
そのような格子の大きさは、対応する形式的文脈におけるサブコンテキストの数に依存する。
本稿では,与えられた形式的文脈のすべての対数スケールの計算を可能にするアルゴリズムであるContraFinderを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:53:50Z) - Entropy-based Logic Explanations of Neural Networks [24.43410365335306]
本稿では,ニューラルネットワークから論理的説明を抽出するエンド・ツー・エンドの微分可能な手法を提案する。
この方法はエントロピーに基づく基準に依存しており、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-06-12T15:50:47Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - On The Reasons Behind Decisions [11.358487655918676]
意思決定の背後にある十分な、必要な、完全な理由といった概念を定義します。
これらの概念は, 対実的ステートメントの評価にどのように用いられるかを示す。
これらの概念を計算するための効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-21T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。