論文の概要: NeSyFOLD: Extracting Logic Programs from Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2301.12667v2
- Date: Thu, 11 May 2023 03:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 18:09:49.430030
- Title: NeSyFOLD: Extracting Logic Programs from Convolutional Neural Networks
- Title(参考訳): NeSyFOLD:畳み込みニューラルネットワークから論理プログラムを抽出する
- Authors: Parth Padalkar, Huaduo Wang, Gopal Gupta
- Abstract要約: 我々はNeSyFOLDと呼ばれるニューロシンボリックなフレームワークを提案し、CNNから論理規則を抽出し、NeSyFOLDモデルを作成して画像を分類する。
我々は,ルールの取得に決定木のようなアルゴリズムを用いるERICシステムと比較する。
- 参考スコア(独自算出の注目度): 2.7071541526963805
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel neurosymbolic framework called NeSyFOLD to extract logic
rules from a CNN and create a NeSyFOLD model to classify images. NeSyFOLD's
learning pipeline is as follows: (i) We first pre-train a CNN on the input
image dataset and extract activations of the last layer kernels as binary
values; (ii) Next, we use the FOLD-SE-M rule-based machine learning algorithm
to generate a logic program that can classify an image -- represented as a
vector of binary activations corresponding to each kernel -- while producing a
logical explanation. The rules generated by the FOLD-SE-M algorithm have kernel
numbers as predicates. We have devised a novel algorithm for automatically
mapping the CNN kernels to semantic concepts in the images. This mapping is
used to replace predicate names (kernel numbers) in the rule-set with
corresponding semantic concept labels. The resulting rule-set is interpretable,
and can be intuitively understood by humans. We compare our NeSyFOLD framework
with the ERIC system that uses a decision-tree like algorithm to obtain the
rules. Our framework has the following advantages over ERIC: (i) In most cases,
NeSyFOLD generates smaller rule-sets without compromising on the accuracy and
fidelity; (ii) NeSyFOLD generates the mapping of filter numbers to semantic
labels automatically.
- Abstract(参考訳): 我々は、CNNから論理規則を抽出し、画像を分類するNeSyFOLDモデルを作成する、NeSyFOLDと呼ばれる新しいニューロシンボリックフレームワークを提案する。
NeSyFOLDの学習パイプラインは以下のとおりである。
i)入力画像データセット上で最初にCNNを事前訓練し、最後のレイヤカーネルのアクティベーションをバイナリ値として抽出する。
次に、FOLD-SE-Mルールに基づく機械学習アルゴリズムを用いて、各カーネルに対応するバイナリアクティベーションのベクトルとして表現されたイメージを分類可能な論理プログラムを生成し、論理的説明を生成する。
FOLD-SE-Mアルゴリズムが生成するルールは、カーネル番号を述語として持つ。
我々はCNNカーネルを画像のセマンティックな概念に自動的にマッピングする新しいアルゴリズムを考案した。
このマッピングはルールセットの述語名(カーネル番号)を対応する意味概念ラベルに置き換えるために使用される。
結果のルールセットは解釈可能であり、人間によって直感的に理解することができる。
我々はNeSyFOLDフレームワークと決定木のようなアルゴリズムを用いてルールを得るERICシステムを比較した。
私たちのフレームワークはericよりも次のような利点があります。
(i)ほとんどの場合、NeSyFOLDは正確性及び忠実性を損なうことなく、より小さなルールセットを生成する。
(ii)NeSyFOLDはフィルタ番号を意味ラベルに自動的にマッピングする。
関連論文リスト
- Using Logic Programming and Kernel-Grouping for Improving
Interpretability of Convolutional Neural Networks [1.6317061277457001]
ニューロシンボリック・フレームワークであるNeSyFOLD-GはCNNの最終層カーネルを用いてシンボリック・ルールセットを生成する。
同様のカーネルをグループ化することで,FOLD-SE-Mが生成するルールセットのサイズが大幅に小さくなることを示す。
また,ルールセット内の各述語を,対応するカーネル群が表現する意味概念とラベル付けする新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-19T18:12:49Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Self-interpretable Convolutional Neural Networks for Text Classification [5.55878488884108]
本論文では,ReLU-DNNに固有の局所線型モデルを用いて,テキスト分類問題に対する畳み込みニューラルネットワークの解釈手法を提案する。
提案手法は,より複雑なCNNモデルに対して,自己解釈可能で,同等の性能を有する擬似モデルを生成する。
論文 参考訳(メタデータ) (2021-05-18T15:19:59Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。