論文の概要: Fuzzy Logic Function as a Post-hoc Explanator of the Nonlinear
Classifier
- arxiv url: http://arxiv.org/abs/2401.14417v1
- Date: Mon, 22 Jan 2024 13:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-04 05:32:56.230707
- Title: Fuzzy Logic Function as a Post-hoc Explanator of the Nonlinear
Classifier
- Title(参考訳): 非線形分類器のポストホック展開器としてのファジィ論理関数
- Authors: Martin Klimo, Lubomir Kralik
- Abstract要約: ディープニューラルネットワークを用いて実装されたパターン認識システムは線形モデルよりも優れた結果が得られる。
しかし、その欠点はブラックボックスの特性である。
この性質は、非線形システムを利用した経験のない人は、決定の結果を理解するのに役立つかもしれないことを意味する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pattern recognition systems implemented using deep neural networks achieve
better results than linear models. However, their drawback is the black box
property. This property means that one with no experience utilising nonlinear
systems may need help understanding the outcome of the decision. Such a
solution is unacceptable to the user responsible for the final decision. He
must not only believe in the decision but also understand it. Therefore,
recognisers must have an architecture that allows interpreters to interpret the
findings. The idea of post-hoc explainable classifiers is to design an
interpretable classifier parallel to the black box classifier, giving the same
decisions as the black box classifier. This paper shows that the explainable
classifier completes matching classification decisions with the black box
classifier on the MNIST and FashionMNIST databases if Zadeh`s fuzzy logic
function forms the classifier and DeconvNet importance gives the truth values.
Since the other tested significance measures achieved lower performance than
DeconvNet, it is the optimal transformation of the feature values to their
truth values as inputs to the fuzzy logic function for the databases and
recogniser architecture used.
- Abstract(参考訳): ディープニューラルネットワークを用いて実装されたパターン認識システムは線形モデルよりも優れた結果が得られる。
しかし、その欠点はブラックボックスの特性である。
この性質は、非線形システムを利用した経験のない人は、決定の結果を理解するのに役立つかもしれないことを意味する。
このようなソリューションは、最終決定に責任を持つユーザには受け入れられない。
彼はその決定を信じるだけでなく、それを理解しなければならない。
したがって、recognisersは、インタプリタが発見を解釈できるアーキテクチャを持つ必要がある。
ポストホックな説明可能な分類器の考え方は、ブラックボックス分類器と平行な解釈可能な分類器を設計し、ブラックボックス分類器と同じ決定を与えることである。
本稿では、Zadehのファジィ論理関数が分類器を形成し、DeconvNetの重要性が真理値を与える場合、説明可能な分類器がMNISTおよびFashionMNISTデータベース上のブラックボックス分類器と一致する分類決定を完了することを示す。
他のテストされた重要度尺度はDeconvNetよりも低い性能を達成したため、データベースと認識アーキテクチャのファジィ論理関数への入力として特徴値から真理値への最適な変換である。
関連論文リスト
- Knowledge Trees: Gradient Boosting Decision Trees on Knowledge Neurons
as Probing Classifier [0.0]
変圧器ニューラルネットワーク層の出力表現におけるロジスティック回帰は、言語モデルの構文特性の探索に最もよく用いられる。
本研究では, 変圧器層の出力表現におけるロジスティック回帰を用いた場合よりも, 知識ニューロン層での勾配向上決定木を用いた方が有利であることを示す。
論文 参考訳(メタデータ) (2023-12-17T15:37:03Z) - NeSyFOLD: Neurosymbolic Framework for Interpretable Image Classification [1.3812010983144802]
画像分類タスクのためのニューロシンボリック(NeSy)モデルを作成するため,NeSyFOLDと呼ばれる新しいフレームワークを提案する。
FOLD-SE-Mと呼ばれるルールベースの機械学習アルゴリズムを用いて、階層化された回答セットプログラムを導出する。
NeSyモデルによる予測の正当性は、ASPインタープリタを使って得ることができる。
論文 参考訳(メタデータ) (2023-01-30T05:08:05Z) - A Set Membership Approach to Discovering Feature Relevance and
Explaining Neural Classifier Decisions [0.0]
本稿では,訓練されたニューラル分類器がどの特徴を関連づけているかを明らかにする新しい手法を提案する。
しかし,本稿では,非線形パラメータ推定の観点から,特徴関連性は機械学習の文献で注目されている。
論文 参考訳(メタデータ) (2022-04-05T14:25:11Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Classification and Feature Transformation with Fuzzy Cognitive Maps [0.3299672391663526]
Fuzzy Cognitive Maps(FCM)は、ファジィ論理と繰り返しニューラルネットワークの要素を組み合わせたソフトコンピューティング技術と考えられている。
本研究では,フルコネクテッドマップ構造を有するFCMに基づく分類器を提案する。
重みを勾配アルゴリズムで学習し,コスト関数としてloglossやcross-entropyを用いた。
論文 参考訳(メタデータ) (2021-03-08T22:26:24Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - Deep Networks as Logical Circuits: Generalization and Interpretation [10.223907995092835]
本稿では、Deep Neural Networks (DNN) の離散分類マップを中間(True/False)分類器の論理的(AND/OR)組合せに階層的に分解する。
学習された内部的論理的計算は、平易な英語でDNN記述を許容する意味論的意味のあるカテゴリに対応していることを示す。
論文 参考訳(メタデータ) (2020-03-25T20:39:53Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。