論文の概要: Logic interpretations of ANN partition cells
- arxiv url: http://arxiv.org/abs/2408.14314v1
- Date: Mon, 26 Aug 2024 14:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 13:41:26.229803
- Title: Logic interpretations of ANN partition cells
- Title(参考訳): ANN分断細胞の論理的解釈
- Authors: Ingo Schmitt,
- Abstract要約: フィードフォワード人工ニューラルネットワーク(ANN)を用いた二元分類問題の検討
ANNをReLU層と複数の線形層(畳み込み、サマリプール、または完全に接続された)で構成する。
単純なANNと論理の橋渡しを行い、その結果、強力なツールセットの論理を用いてANNのセマンティクスを分析し、操作することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Consider a binary classification problem solved using a feed-forward artificial neural network (ANN). Let the ANN be composed of a ReLU layer and several linear layers (convolution, sum-pooling, or fully connected). We assume the network was trained with high accuracy. Despite numerous suggested approaches, interpreting an artificial neural network remains challenging for humans. For a new method of interpretation, we construct a bridge between a simple ANN and logic. As a result, we can analyze and manipulate the semantics of an ANN using the powerful tool set of logic. To achieve this, we decompose the input space of the ANN into several network partition cells. Each network partition cell represents a linear combination that maps input values to a classifying output value. For interpreting the linear map of a partition cell using logic expressions, we suggest minterm values as the input of a simple ANN. We derive logic expressions representing interaction patterns for separating objects classified as 1 from those classified as 0. To facilitate an interpretation of logic expressions, we present them as binary logic trees.
- Abstract(参考訳): フィードフォワード人工ニューラルネットワーク(ANN)を用いて解くバイナリ分類問題を考える。
ANNをReLU層と複数のリニア層(畳み込み、サマリプール、あるいは完全に接続された)で構成する。
ネットワークは高い精度でトレーニングされたと仮定する。
多くの提案されたアプローチにもかかわらず、人工ニューラルネットワークの解釈は人間にとって難しいままである。
新しい解釈法として,単純なANNと論理のブリッジを構築する。
その結果、強力なツールセットの論理を用いて、ANNのセマンティクスを分析し、操作することができる。
これを実現するために、ANNの入力空間を複数のネットワーク分割セルに分解する。
各ネットワーク分割セルは、入力値を分類出力値にマッピングする線形結合を表す。
論理式を用いて分割セルの線形写像を解釈するために,簡単なANNの入力として最小値を提案する。
0 に分類されたオブジェクトから 1 に分類されたオブジェクトを分離するための相互作用パターンを表す論理式を導出する。
論理表現の解釈を容易にするために,2進論理木として提示する。
関連論文リスト
- Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Transforming to Yoked Neural Networks to Improve ANN Structure [0.0]
ほとんどの既存の人工ニューラルネットワーク(ANN)は、ニューラルネットワークを模倣するツリー構造として設計されている。
このような構造バイアスを効率的に除去するモデルYNNを提案する。
我々のモデルでは、ノードは特徴の集約と変換を行い、エッジは情報の流れを決定する。
論文 参考訳(メタデータ) (2023-06-03T16:56:18Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - A Logical Neural Network Structure With More Direct Mapping From Logical
Relations [8.239523696224975]
論理的関係をコンピュータシステムに正しく表現し、保存し、自動判断と判断を行うことが必須である。
現在の数値ANNモデルは、画像認識のような知覚知能に長けているが、論理表現のような認知知能には長けていない。
本稿では,新しい論理ニューロンを設計し,論理表現の要求を反映した新しい論理ANNモデルを提案する。
論文 参考訳(メタデータ) (2021-06-22T00:53:08Z) - Rule Extraction from Binary Neural Networks with Convolutional Rules for
Model Validation [16.956140135868733]
本稿では,畳み込みニューラルネットワーク(CNN)を用いて抽出可能な論理則である一階畳み込み規則について紹介する。
提案手法は,ローカルサーチを用いたバイナリニューラルネットワークからのルール抽出に基づいている。
実験の結果,提案手法はニューラルネットワークの機能をモデル化できると同時に,解釈可能な論理ルールを生成できることがわかった。
論文 参考訳(メタデータ) (2020-12-15T17:55:53Z) - Learning Syllogism with Euler Neural-Networks [20.47827965932698]
ボールの中心ベクトルは、従来のニューラルネットワークの表現力を継承できるベクトルである。
6つのRectified Space Units (ReSU) を持つ新しいバックプロパゲーションアルゴリズムは、論理的前提を表すオイラー図を最適化することができる。
従来のニューラルネットワークとは対照的に、ERNはSyllogismの24の異なる構造をすべて正確に表現することができる。
論文 参考訳(メタデータ) (2020-07-14T19:35:35Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Deep Networks as Logical Circuits: Generalization and Interpretation [10.223907995092835]
本稿では、Deep Neural Networks (DNN) の離散分類マップを中間(True/False)分類器の論理的(AND/OR)組合せに階層的に分解する。
学習された内部的論理的計算は、平易な英語でDNN記述を許容する意味論的意味のあるカテゴリに対応していることを示す。
論文 参考訳(メタデータ) (2020-03-25T20:39:53Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。