論文の概要: Explainable AI for Classification using Probabilistic Logic Inference
- arxiv url: http://arxiv.org/abs/2005.02074v1
- Date: Tue, 5 May 2020 11:39:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:22:49.157981
- Title: Explainable AI for Classification using Probabilistic Logic Inference
- Title(参考訳): 確率論的論理推論を用いた分類のための説明可能なAI
- Authors: Xiuyi Fan and Siyuan Liu and Thomas C. Henderson
- Abstract要約: 説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
- 参考スコア(独自算出の注目度): 9.656846523452502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The overarching goal of Explainable AI is to develop systems that not only
exhibit intelligent behaviours, but also are able to explain their rationale
and reveal insights. In explainable machine learning, methods that produce a
high level of prediction accuracy as well as transparent explanations are
valuable. In this work, we present an explainable classification method. Our
method works by first constructing a symbolic Knowledge Base from the training
data, and then performing probabilistic inferences on such Knowledge Base with
linear programming. Our approach achieves a level of learning performance
comparable to that of traditional classifiers such as random forests, support
vector machines and neural networks. It identifies decisive features that are
responsible for a classification as explanations and produces results similar
to the ones found by SHAP, a state of the art Shapley Value based method. Our
algorithms perform well on a range of synthetic and non-synthetic data sets.
- Abstract(参考訳): Explainable AIの網羅的な目標は、インテリジェントな振る舞いを示すだけでなく、その根拠を説明し、洞察を明らかにするシステムを開発することである。
説明可能な機械学習では、高いレベルの予測精度と透明な説明を生成する手法が有用である。
本稿では,説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベースに対して線形計画法を用いて確率的推論を行う。
本手法は,ランダムフォレストやサポートベクターマシン,ニューラルネットワークといった従来の分類器に匹敵するレベルの学習性能を実現する。
分類の責任を負う決定的な特徴を説明として識別し、アート・シャプリー値に基づく方法であるshapによって発見されたものと類似した結果を生成する。
我々のアルゴリズムは合成および非合成データセットでうまく機能する。
関連論文リスト
- Simple and Interpretable Probabilistic Classifiers for Knowledge Graphs [0.0]
本稿では,単純な信念ネットワークの学習に基づく帰納的アプローチについて述べる。
このようなモデルを(確率的な)公理(あるいは規則)に変換する方法を示す。
論文 参考訳(メタデータ) (2024-07-09T17:05:52Z) - An AI Architecture with the Capability to Explain Recognition Results [0.0]
本研究は、説明可能性に対するメトリクスの重要性に焦点をあて、性能向上をもたらす2つの方法に貢献する。
第1の方法は説明不能なフローと説明不能なフローの組み合わせを導入し、意思決定の説明容易性を特徴づける指標を提案する。
第2の方法は、システム内のニューラルネットワークの有効性を推定するための古典的なメトリクスを比較し、新しいメトリックをリードパフォーマーとして振る舞う。
論文 参考訳(メタデータ) (2024-06-13T02:00:13Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Multiclass classification utilising an estimated algorithmic probability
prior [0.5156484100374058]
我々は,アルゴリズム情報理論,特にアルゴリズム的確率が,機械学習タスクにどのように役立つかを研究する。
この研究は、アルゴリズムの確率が具体的な実世界の機械学習問題にどのように役立つかを示す最初の1つである。
論文 参考訳(メタデータ) (2022-12-14T07:50:12Z) - Provable concept learning for interpretable predictions using
variational inference [7.0349768355860895]
安全クリティカルなアプリケーションでは、解釈可能な説明が得られない場合、実践者はニューラルネットワークを信頼することを避けます。
我々は(C)概念(L)アーニングと(P)ディディクション(CLAP)を導出する確率論的モデリングフレームワークを提案する。
本手法は最適な分類精度を保ちながら同定できることを実証する。
論文 参考訳(メタデータ) (2022-04-01T14:51:38Z) - Learning Gradual Argumentation Frameworks using Genetic Algorithms [5.953590600890214]
本稿では,議論型分類モデルの構造を同時に学習する遺伝的アルゴリズムを提案する。
本プロトタイプでは,学習性能と解釈可能性の観点から,決定木に匹敵する論証的分類モデルを学習する。
論文 参考訳(メタデータ) (2021-06-25T12:33:31Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。