論文の概要: NeSyFOLD: Neurosymbolic Framework for Interpretable Image Classification
- arxiv url: http://arxiv.org/abs/2301.12667v3
- Date: Sun, 20 Aug 2023 21:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 01:44:33.914770
- Title: NeSyFOLD: Neurosymbolic Framework for Interpretable Image Classification
- Title(参考訳): NeSyFOLD: 解釈可能な画像分類のためのニューロシンボリックフレームワーク
- Authors: Parth Padalkar, Huaduo Wang, Gopal Gupta
- Abstract要約: 画像分類タスクのためのニューロシンボリック(NeSy)モデルを作成するため,NeSyFOLDと呼ばれる新しいフレームワークを提案する。
FOLD-SE-Mと呼ばれるルールベースの機械学習アルゴリズムを用いて、階層化された回答セットプログラムを導出する。
NeSyモデルによる予測の正当性は、ASPインタープリタを使って得ることができる。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning models such as CNNs have surpassed human performance in
computer vision tasks such as image classification. However, despite their
sophistication, these models lack interpretability which can lead to biased
outcomes reflecting existing prejudices in the data. We aim to make predictions
made by a CNN interpretable. Hence, we present a novel framework called
NeSyFOLD to create a neurosymbolic (NeSy) model for image classification tasks.
The model is a CNN with all layers following the last convolutional layer
replaced by a stratified answer set program (ASP). A rule-based machine
learning algorithm called FOLD-SE-M is used to derive the stratified answer set
program from binarized filter activations of the last convolutional layer. The
answer set program can be viewed as a rule-set, wherein the truth value of each
predicate depends on the activation of the corresponding kernel in the CNN. The
rule-set serves as a global explanation for the model and is interpretable. A
justification for the predictions made by the NeSy model can be obtained using
an ASP interpreter. We also use our NeSyFOLD framework with a CNN that is
trained using a sparse kernel learning technique called Elite BackProp (EBP).
This leads to a significant reduction in rule-set size without compromising
accuracy or fidelity thus improving scalability of the NeSy model and
interpretability of its rule-set. Evaluation is done on datasets with varied
complexity and sizes. To make the rule-set more intuitive to understand, we
propose a novel algorithm for labelling each kernel's corresponding predicate
in the rule-set with the semantic concept(s) it learns. We evaluate the
performance of our "semantic labelling algorithm" to quantify the efficacy of
the semantic labelling for both the NeSy model and the NeSy-EBP model.
- Abstract(参考訳): cnnのようなディープラーニングモデルは、画像分類などのコンピュータビジョンタスクで人間のパフォーマンスを上回っている。
しかし、その高度さにもかかわらず、これらのモデルは解釈可能性に欠けており、データの既存の偏見を反映するバイアスのある結果をもたらす可能性がある。
我々はCNNが解釈可能な予測を行うことを目指している。
そこで我々はNeSyFOLDと呼ばれる新しいフレームワークを提案し、画像分類タスクのためのニューロシンボリック(NeSy)モデルを作成する。
モデルはCNNであり、最後の畳み込み層に続くすべてのレイヤが階層化された回答セットプログラム(ASP.NET)に置き換えられている。
FOLD-SE-Mと呼ばれるルールベースの機械学習アルゴリズムを用いて、最終畳み込み層の二項化フィルタアクティベーションから階層化解集合プログラムを導出する。
回答セットプログラムはルールセットと見なすことができ、各述語の真理値はcnn内の対応するカーネルの活性化に依存する。
ルールセットはモデルのグローバルな説明として機能し、解釈可能である。
NeSyモデルによる予測の正当化は、ASPインタープリタを使って得ることができる。
また、我々はNeSyFOLDフレームワークを、Elite BackProp (EBP)と呼ばれるスパースカーネル学習技術を用いて訓練されたCNNで使用しています。
これにより、精度や忠実さを損なうことなくルールセットのサイズが大幅に削減され、nesyモデルのスケーラビリティとルールセットの解釈性が向上した。
評価は、さまざまな複雑さとサイズを持つデータセットで行われる。
ルールセットをより直感的に理解できるように、各カーネルの対応する述語をルールセットにラベル付けするアルゴリズムを、学習した意味概念と組み合わせて提案する。
我々は,NeSyモデルとNeSy-EBPモデルの両方に対するセマンティックラベリングの有効性を評価するために,セマンティックラベリングアルゴリズムの性能を評価する。
関連論文リスト
- Using Logic Programming and Kernel-Grouping for Improving
Interpretability of Convolutional Neural Networks [1.6317061277457001]
ニューロシンボリック・フレームワークであるNeSyFOLD-GはCNNの最終層カーネルを用いてシンボリック・ルールセットを生成する。
同様のカーネルをグループ化することで,FOLD-SE-Mが生成するルールセットのサイズが大幅に小さくなることを示す。
また,ルールセット内の各述語を,対応するカーネル群が表現する意味概念とラベル付けする新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-19T18:12:49Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Self-interpretable Convolutional Neural Networks for Text Classification [5.55878488884108]
本論文では,ReLU-DNNに固有の局所線型モデルを用いて,テキスト分類問題に対する畳み込みニューラルネットワークの解釈手法を提案する。
提案手法は,より複雑なCNNモデルに対して,自己解釈可能で,同等の性能を有する擬似モデルを生成する。
論文 参考訳(メタデータ) (2021-05-18T15:19:59Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。