論文の概要: Neural Networks Enhancement with Logical Knowledge
- arxiv url: http://arxiv.org/abs/2009.06087v2
- Date: Mon, 18 Oct 2021 11:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:33:41.390457
- Title: Neural Networks Enhancement with Logical Knowledge
- Title(参考訳): 論理知識を用いたニューラルネットワークの強化
- Authors: Alessandro Daniele, Luciano Serafini
- Abstract要約: 関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
- 参考スコア(独自算出の注目度): 83.9217787335878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the recent past, there has been a growing interest in Neural-Symbolic
Integration frameworks, i.e., hybrid systems that integrate connectionist and
symbolic approaches to obtain the best of both worlds. In a previous work, we
proposed KENN (Knowledge Enhanced Neural Networks), a Neural-Symbolic
architecture that injects prior logical knowledge into a neural network by
adding a new final layer which modifies the initial predictions accordingly to
the knowledge. Among the advantages of this strategy, there is the inclusion of
clause weights, learnable parameters that represent the strength of the
clauses, meaning that the model can learn the impact of each clause on the
final predictions. As a special case, if the training data contradicts a
constraint, KENN learns to ignore it, making the system robust to the presence
of wrong knowledge. In this paper, we propose an extension of KENN for
relational data. To evaluate this new extension, we tested it with different
learning configurations on Citeseer, a standard dataset for Collective
Classification. The results show that KENN is capable of increasing the
performances of the underlying neural network even in the presence relational
data, outperforming other two notable methods that combine learning with logic.
- Abstract(参考訳): 近年、ニューラル・シンボリック統合フレームワーク、すなわち接続主義とシンボリックなアプローチを統合して両世界のベストを得るハイブリッドシステムへの関心が高まっている。
前回の研究では、ニューラルネットワークに事前の論理知識を注入するニューラルシンボリックアーキテクチャであるkenn(knowledge enhanced neural networks)を提案した。
この戦略の利点の1つは、節の重み、節の強さを表す学習可能なパラメータ、すなわちモデルが各節の最終的な予測への影響を学習できることである。
特別な場合として、トレーニングデータが制約に矛盾する場合、KENNはそれを無視することを学び、システムが間違った知識の存在に対して堅牢になる。
本稿では,関係データに対するKENNの拡張を提案する。
この新しい拡張を評価するために、私たちは、集合的分類のための標準データセットであるciteseer上で、異なる学習構成でテストしました。
その結果、kennは存在関係データにおいても基盤となるニューラルネットワークのパフォーマンスを向上させることができ、学習と論理を組み合わせる他の2つの注目すべき方法よりも優れていることがわかった。
関連論文リスト
- Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - From "What" to "When" -- a Spiking Neural Network Predicting Rare Events
and Time to their Occurrence [0.0]
本研究は, 漏洩型統合火災(LIF)ニューロンからなるSNNを用いて, 対応する予測モデルを学習するための新しいアプローチを提案する。
提案手法は, 特殊設計した局所シナプス塑性規則と新しいカラム層SNNアーキテクチャを利用する。
本論文で述べるSNNは,高精度な機械学習技術と比較して精度が高いことを示した。
論文 参考訳(メタデータ) (2023-11-09T08:47:23Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Epistemic Neural Networks [25.762699400341972]
原則として、アンサンブルに基づくアプローチは効果的な共同予測をもたらす。
しかし、大規模なアンサンブルを訓練する際の計算コストは禁じられる可能性がある。
従来のニューラルネットワークを補完するアーキテクチャであるEpinetを紹介します。
論文 参考訳(メタデータ) (2021-07-19T14:37:57Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。