論文の概要: Learning Syllogism with Euler Neural-Networks
- arxiv url: http://arxiv.org/abs/2007.07320v2
- Date: Mon, 20 Jul 2020 09:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:21:28.109098
- Title: Learning Syllogism with Euler Neural-Networks
- Title(参考訳): Euler Neural-NetworksによるSyllogismの学習
- Authors: Tiansi Dong, Chengjiang Li, Christian Bauckhage, Juanzi Li, Stefan
Wrobel, Armin B. Cremers
- Abstract要約: ボールの中心ベクトルは、従来のニューラルネットワークの表現力を継承できるベクトルである。
6つのRectified Space Units (ReSU) を持つ新しいバックプロパゲーションアルゴリズムは、論理的前提を表すオイラー図を最適化することができる。
従来のニューラルネットワークとは対照的に、ERNはSyllogismの24の異なる構造をすべて正確に表現することができる。
- 参考スコア(独自算出の注目度): 20.47827965932698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional neural networks represent everything as a vector, and are able to
approximate a subset of logical reasoning to a certain degree. As basic logic
relations are better represented by topological relations between regions, we
propose a novel neural network that represents everything as a ball and is able
to learn topological configuration as an Euler diagram. So comes the name Euler
Neural-Network (ENN). The central vector of a ball is a vector that can inherit
representation power of traditional neural network. ENN distinguishes four
spatial statuses between balls, namely, being disconnected, being partially
overlapped, being part of, being inverse part of. Within each status, ideal
values are defined for efficient reasoning. A novel back-propagation algorithm
with six Rectified Spatial Units (ReSU) can optimize an Euler diagram
representing logical premises, from which logical conclusion can be deduced. In
contrast to traditional neural network, ENN can precisely represent all 24
different structures of Syllogism. Two large datasets are created: one
extracted from WordNet-3.0 covers all types of Syllogism reasoning, the other
extracted all family relations from DBpedia. Experiment results approve the
superior power of ENN in logical representation and reasoning. Datasets and
source code are available upon request.
- Abstract(参考訳): 従来のニューラルネットワークは、すべてをベクトルとして表現し、論理推論のサブセットをある程度近似することができる。
基本論理関係は領域間のトポロジ的関係によりより良く表現されるので、全てのことを球として表現し、オイラー図として位相的構成を学習できる新しいニューラルネットワークを提案する。
略称はEuler Neural-Network(ENN)。
ボールの中心ベクトルは、従来のニューラルネットワークの表現力を継承できるベクトルである。
ENNは、ボール間で4つの空間的状態、すなわち切断され、部分的に重なり合い、一部が逆部分である。
各状態において、理想値は効率的な推論のために定義される。
6つのRectified Space Unit (ReSU) を持つ新しいバックプロパゲーションアルゴリズムは、論理的前提を表すオイラー図を最適化し、論理的結論を導出することができる。
従来のニューラルネットワークとは対照的に、ennは24の異なるシルロジズム構造をすべて正確に表現することができる。
WordNet-3.0から抽出された1つは全ての種類のシロジズム推論をカバーし、もう1つはDBpediaからすべての家族関係を抽出する。
実験結果は、論理表現と推論において、ENNの優れたパワーを承認する。
要求に応じてデータセットとソースコードが利用可能だ。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Nearest Neighbor Representations of Neural Circuits [12.221087476416056]
Nearest Neighbor (NN)表現は計算の新しいアプローチである。
我々は、そのNN表現に対して、ビット数に明示的な境界を持つ明示的な構成を提供する。
例えば、凸多面体のNN表現(閾値ゲートのAND)、IP2、閾値ゲートのOR、線形または正確な決定リストなどがある。
論文 参考訳(メタデータ) (2024-02-13T19:38:01Z) - Closed-Form Interpretation of Neural Network Classifiers with Symbolic Gradients [0.7832189413179361]
人工ニューラルネットワークにおいて、任意の単一ニューロンのクローズドフォーム解釈を見つけるための統一的なフレームワークを紹介します。
ニューラルネットワーク分類器を解釈して、決定境界に符号化された概念のクローズドフォーム表現を明らかにする。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Binary Multi Channel Morphological Neural Network [5.551756485554158]
本稿では,畳み込みニューラルネットワーク上に構築されたBiMoNNを紹介する。
ネットワーク全体をバイナライズするために,BiMoNNとモルフォロジー演算子との等価性を実証する。
これらは古典的形態学演算子を学習し、医用画像アプリケーションで有望な結果を示すことができる。
論文 参考訳(メタデータ) (2022-04-19T09:26:11Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - NeuralLog: a Neural Logic Language [0.0]
ニューラルネットワークにコンパイルされた第一次論理言語であるNeuralLogを提案する。
NeuralLogの主な目標は、ロジックプログラミングとディープラーニングをブリッジすることだ。
比較したシステムと同じ理論を用いて,neurallogはリンク予測と分類タスクを学習できることを示した。
論文 参考訳(メタデータ) (2021-05-04T12:09:35Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。