論文の概要: Using Logic Programming and Kernel-Grouping for Improving
Interpretability of Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2310.13073v1
- Date: Thu, 19 Oct 2023 18:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:46:19.162652
- Title: Using Logic Programming and Kernel-Grouping for Improving
Interpretability of Convolutional Neural Networks
- Title(参考訳): 論理プログラミングとカーネルグループを用いた畳み込みニューラルネットワークの解釈性向上
- Authors: Parth Padalkar, Gopal Gupta
- Abstract要約: ニューロシンボリック・フレームワークであるNeSyFOLD-GはCNNの最終層カーネルを用いてシンボリック・ルールセットを生成する。
同様のカーネルをグループ化することで,FOLD-SE-Mが生成するルールセットのサイズが大幅に小さくなることを示す。
また,ルールセット内の各述語を,対応するカーネル群が表現する意味概念とラベル付けする新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Within the realm of deep learning, the interpretability of Convolutional
Neural Networks (CNNs), particularly in the context of image classification
tasks, remains a formidable challenge. To this end we present a neurosymbolic
framework, NeSyFOLD-G that generates a symbolic rule-set using the last layer
kernels of the CNN to make its underlying knowledge interpretable. What makes
NeSyFOLD-G different from other similar frameworks is that we first find groups
of similar kernels in the CNN (kernel-grouping) using the cosine-similarity
between the feature maps generated by various kernels. Once such kernel groups
are found, we binarize each kernel group's output in the CNN and use it to
generate a binarization table which serves as input data to FOLD-SE-M which is
a Rule Based Machine Learning (RBML) algorithm. FOLD-SE-M then generates a
rule-set that can be used to make predictions. We present a novel kernel
grouping algorithm and show that grouping similar kernels leads to a
significant reduction in the size of the rule-set generated by FOLD-SE-M,
consequently, improving the interpretability. This rule-set symbolically
encapsulates the connectionist knowledge of the trained CNN. The rule-set can
be viewed as a normal logic program wherein each predicate's truth value
depends on a kernel group in the CNN. Each predicate in the rule-set is mapped
to a concept using a few semantic segmentation masks of the images used for
training, to make it human-understandable. The last layers of the CNN can then
be replaced by this rule-set to obtain the NeSy-G model which can then be used
for the image classification task. The goal directed ASP system s(CASP) can be
used to obtain the justification of any prediction made using the NeSy-G model.
We also propose a novel algorithm for labeling each predicate in the rule-set
with the semantic concept(s) that its corresponding kernel group represents.
- Abstract(参考訳): ディープラーニングの領域内では、畳み込みニューラルネットワーク(CNN)の解釈可能性、特に画像分類タスクの文脈では、依然として深刻な課題である。
この目的のために,CNNの最終層カーネルを用いたシンボリックルールセットを生成するNeSyFOLD-Gというニューロシンボリックフレームワークを提案する。
NeSyFOLD-Gが他の類似フレームワークと異なるのは、様々なカーネルが生成する特徴マップ間のコサイン類似性を利用して、CNN(カーネルグループ)で類似したカーネルのグループを最初に見つけることである。
このようなカーネル群が見つかると、各カーネル群の出力をCNNで二項化して、ルールベース機械学習(RBML)アルゴリズムであるFOLD-SE-Mへの入力データとして機能する二項化テーブルを生成する。
FOLD-SE-Mは、予測に使用できるルールセットを生成する。
本稿では,新しいカーネルグルーピングアルゴリズムを提案し,類似するカーネルのグルーピングにより,fold-se-m が生成するルールセットのサイズが大幅に減少し,解釈性が向上することを示す。
このルールセットは、訓練されたCNNのコネクショナリズム知識を象徴的にカプセル化する。
ルールセットは、各述語の真理値がCNNのカーネルグループに依存する通常の論理プログラムと見なすことができる。
ルールセットの各述語は、トレーニングに使用される画像のいくつかのセマンティックセグメンテーションマスクを使用して概念にマッピングされ、人間の理解が可能である。
cnnの最後のレイヤは、nesy-gモデルを得るためにこのルールセットに置き換えることができ、画像分類タスクに使用できる。
目標指向aspシステムs(casp)は、nesy-gモデルを用いた任意の予測を正当化するために使用できる。
また,ルールセット内の各述語を,対応するカーネル群が表現する意味概念とラベル付けする新しいアルゴリズムを提案する。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - NeSyFOLD: Neurosymbolic Framework for Interpretable Image Classification [1.3812010983144802]
画像分類タスクのためのニューロシンボリック(NeSy)モデルを作成するため,NeSyFOLDと呼ばれる新しいフレームワークを提案する。
FOLD-SE-Mと呼ばれるルールベースの機械学習アルゴリズムを用いて、階層化された回答セットプログラムを導出する。
NeSyモデルによる予測の正当性は、ASPインタープリタを使って得ることができる。
論文 参考訳(メタデータ) (2023-01-30T05:08:05Z) - Implicit Convolutional Kernels for Steerable CNNs [5.141137421503899]
ステアブル畳み込みニューラルネットワーク(CNN)は、原点保存グループ$G$の翻訳と変換に等しいニューラルネットワークを構築するための一般的なフレームワークを提供する。
本稿では,多層パーセプトロン(MLP)による暗黙的ニューラル表現を用いて,$G$-steerableカーネルのパラメータ化を提案する。
我々は,N体シミュレーション,点雲分類,分子特性予測など,複数のタスクにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-12T18:10:33Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - X-DC: Explainable Deep Clustering based on Learnable Spectrogram
Templates [17.83563578034567]
本稿では、学習可能なスペクトログラムテンプレートを入力スペクトログラムに適合させるプロセスとしてネットワークアーキテクチャを解釈できる、説明可能なディープクラスタリング(X-DC)の概念を提案する。
提案したX-DCにより,元のDCモデルに匹敵する音声分離性能を達成しつつ,モデルが埋め込みベクトルを決定するための手がかりを可視化し,理解することができることを示す。
論文 参考訳(メタデータ) (2020-09-18T07:26:52Z) - Multichannel CNN with Attention for Text Classification [5.1545224296246275]
本稿では,テキスト分類のための注意型マルチチャネル畳み込みニューラルネットワーク(AMCNN)を提案する。
AMCNNは、単語の歴史と将来の情報を高次元表現にエンコードするために双方向長短期記憶を使用する。
ベンチマークデータセットの実験結果は、AMCNNが最先端の手法よりも優れたパフォーマンスを達成していることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。