論文の概要: Feature Extraction Functions for Neural Logic Rule Learning
- arxiv url: http://arxiv.org/abs/2008.06326v4
- Date: Sun, 11 Apr 2021 06:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 16:46:21.801160
- Title: Feature Extraction Functions for Neural Logic Rule Learning
- Title(参考訳): ニューラルロジックルール学習のための特徴抽出関数
- Authors: Shashank Gupta, Antonio Robles-Kelly and Mohamed Reda Bouadjenek
- Abstract要約: ニューラルネットワークの予測行動に論理規則として抽象化された人間の知識を統合する機能を提案する。
他の既存のニューラルネットワークのアプローチとは異なり、これらの関数のプログラム的性質は、特別な数学的エンコーディングを一切必要としないことを意味する。
- 参考スコア(独自算出の注目度): 4.181432858358386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Combining symbolic human knowledge with neural networks provides a rule-based
ante-hoc explanation of the output. In this paper, we propose feature
extracting functions for integrating human knowledge abstracted as logic rules
into the predictive behavior of a neural network. These functions are embodied
as programming functions, which represent the applicable domain knowledge as a
set of logical instructions and provide a modified distribution of independent
features on input data. Unlike other existing neural logic approaches, the
programmatic nature of these functions implies that they do not require any
kind of special mathematical encoding, which makes our method very general and
flexible in nature. We illustrate the performance of our approach for sentiment
classification and compare our results to those obtained using two baselines.
- Abstract(参考訳): 記号的人間の知識とニューラルネットワークを組み合わせることで、出力のルールベースのアンテホックな説明を提供する。
本稿では,論理規則として抽象化された人間の知識をニューラルネットワークの予測行動に統合する特徴抽出関数を提案する。
これらの関数はプログラミング関数として具現化され、適用可能なドメイン知識を論理命令の集合として表現し、入力データに独立した特徴の修正された分布を提供する。
他の既存のニューラルネットワークのアプローチとは異なり、これらの関数のプログラム的性質は、いかなる種類の特別な数学的エンコーディングも必要としないことを意味する。
感情分類における我々のアプローチの性能を説明し、2つのベースラインを用いて得られた結果と比較する。
関連論文リスト
- Compositional learning of functions in humans and machines [23.583544271543033]
我々は,構成関数を用いた学習と推論において,人間とニューラルネットワークモデルの能力を探るための関数学習パラダイムを開発する。
その結果,人間は相互作用条件をまたいだ新しい視覚機能合成をゼロショットで一般化できることが示唆された。
同じタスクにおけるニューラルネットワークモデルとの比較により、合成性(MLC)アプローチのメタラーニングを通じて、標準的なシーケンス対シーケンス変換器は、構成関数における人間の一般化パターンを模倣することができることが明らかになった。
論文 参考訳(メタデータ) (2024-03-18T19:22:53Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Neural Feature Learning in Function Space [5.807950618412389]
本稿では,ニューラル特徴抽出器を用いたシステム設計学習フレームワークを提案する。
内部積を備えた関数空間における統計的依存と特徴表現を統一する特徴幾何学を導入する。
データサンプルから最適な特徴を学習するための体系的なアルゴリズム設計を提供するネスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T20:39:12Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Points of non-linearity of functions generated by random neural networks [0.0]
1つの隠れ活性化層、任意の幅、ReLU活性化関数を持つニューラルネットワークによって出力される実数から実数への関数を考える。
非線型性の点の期待分布を計算する。
論文 参考訳(メタデータ) (2023-04-19T17:40:19Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - A Theoretical Analysis on Feature Learning in Neural Networks: Emergence
from Inputs and Advantage over Fixed Features [18.321479102352875]
ニューラルネットワークの重要な特徴は、予測に有効な特徴を持つ入力データの表現を学ぶ能力である。
実践的なデータによって動機づけられた学習問題を考察し、そこでは、ラベルが一連のクラス関連パターンによって決定され、それらから入力が生成される。
勾配降下によって訓練されたニューラルネットワークがこれらの問題に成功できることを実証する。
論文 参考訳(メタデータ) (2022-06-03T17:49:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。