論文の概要: NSL: Hybrid Interpretable Learning From Noisy Raw Data
- arxiv url: http://arxiv.org/abs/2012.05023v1
- Date: Wed, 9 Dec 2020 13:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:14:45.692680
- Title: NSL: Hybrid Interpretable Learning From Noisy Raw Data
- Title(参考訳): NSL: ノイズの多い生データによるハイブリッド解釈型学習
- Authors: Daniel Cunnington, Alessandra Russo, Mark Law, Jorge Lobo, Lance
Kaplan
- Abstract要約: 本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
- 参考スコア(独自算出の注目度): 66.15862011405882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inductive Logic Programming (ILP) systems learn generalised, interpretable
rules in a data-efficient manner utilising existing background knowledge.
However, current ILP systems require training examples to be specified in a
structured logical format. Neural networks learn from unstructured data,
although their learned models may be difficult to interpret and are vulnerable
to data perturbations at run-time. This paper introduces a hybrid
neural-symbolic learning framework, called NSL, that learns interpretable rules
from labelled unstructured data. NSL combines pre-trained neural networks for
feature extraction with FastLAS, a state-of-the-art ILP system for rule
learning under the answer set semantics. Features extracted by the neural
components define the structured context of labelled examples and the
confidence of the neural predictions determines the level of noise of the
examples. Using the scoring function of FastLAS, NSL searches for short,
interpretable rules that generalise over such noisy examples. We evaluate our
framework on propositional and first-order classification tasks using the MNIST
dataset as raw data. Specifically, we demonstrate that NSL is able to learn
robust rules from perturbed MNIST data and achieve comparable or superior
accuracy when compared to neural network and random forest baselines whilst
being more general and interpretable.
- Abstract(参考訳): インダクティブ論理プログラミング(ILP)システムは、既存のバックグラウンド知識を利用したデータ効率のよいルールを一般化し、解釈する。
しかし、現在のilpシステムは、構造化論理形式で指定するトレーニングサンプルを必要とする。
ニューラルネットワークは非構造化データから学習するが、学習したモデルは解釈が難しく、実行時のデータ摂動に弱い可能性がある。
本稿では,ラベル付き非構造化データから解釈可能なルールを学習するNSLという,ハイブリッドなニューラルシンボリック学習フレームワークを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
ニューラルコンポーネントによって抽出された特徴はラベル付きサンプルの構造的コンテキストを定義し、ニューラル予測の信頼性はサンプルのノイズレベルを決定する。
FastLASのスコアリング関数を用いて、NSLはそのようなノイズのある例を一般化する短い解釈可能な規則を探索する。
MNISTデータセットを生データとして,命題・一階分類タスクの枠組みを評価する。
具体的には、ニューラルネットワークやランダム森林ベースラインと比較して、より汎用的で解釈可能でありながら、NSLが摂動MNISTデータから堅牢なルールを学習し、同等または優れた精度を達成できることを実証する。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model [38.79241114146971]
本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
論文 参考訳(メタデータ) (2024-06-14T13:24:32Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Learning Signal Temporal Logic through Neural Network for Interpretable
Classification [13.829082181692872]
本稿では時系列行動の分類のための説明可能なニューラルネットワーク・シンボリック・フレームワークを提案する。
提案手法の計算効率, コンパクト性, 解釈可能性について, シナリオの駆動と海軍の監視事例研究を通じて実証する。
論文 参考訳(メタデータ) (2022-10-04T21:11:54Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - Relational Weight Priors in Neural Networks for Abstract Pattern
Learning and Language Modelling [6.980076213134383]
抽象パターンは、見えないデータに対する一般化の観点から、ニューラルネットワークにとって難しい問題の最もよく知られた例である。
これらの低レベル問題は、ニューラルネットワークが体系的に学習できないことを示しています。
抽象パターンの等価性と距離関係の学習を促進するリレーショナルインダクティブバイアスを作成するための新しい方法として、組み込みリレーショナルベースパターン(ERBP)を提案する。
論文 参考訳(メタデータ) (2021-03-10T17:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。