論文の概要: NeuralFastLAS: Fast Logic-Based Learning from Raw Data
- arxiv url: http://arxiv.org/abs/2310.05145v1
- Date: Sun, 8 Oct 2023 12:33:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 12:04:38.521709
- Title: NeuralFastLAS: Fast Logic-Based Learning from Raw Data
- Title(参考訳): NeuralFastLAS: 生データから高速な論理ベースの学習
- Authors: Theo Charalambous, Yaniv Aspis, Alessandra Russo
- Abstract要約: シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
- 参考スコア(独自算出の注目度): 54.938128496934695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic rule learners generate interpretable solutions, however they require
the input to be encoded symbolically. Neuro-symbolic approaches overcome this
issue by mapping raw data to latent symbolic concepts using a neural network.
Training the neural and symbolic components jointly is difficult, due to slow
and unstable learning, hence many existing systems rely on hand-engineered
rules to train the network. We introduce NeuralFastLAS, a scalable and fast
end-to-end approach that trains a neural network jointly with a symbolic
learner. For a given task, NeuralFastLAS computes a relevant set of rules,
proved to contain an optimal symbolic solution, trains a neural network using
these rules, and finally finds an optimal symbolic solution to the task while
taking network predictions into account. A key novelty of our approach is
learning a posterior distribution on rules while training the neural network to
improve stability during training. We provide theoretical results for a
sufficient condition on network training to guarantee correctness of the final
solution. Experimental results demonstrate that NeuralFastLAS is able to
achieve state-of-the-art accuracy in arithmetic and logical tasks, with a
training time that is up to two orders of magnitude faster than other jointly
trained neuro-symbolic methods.
- Abstract(参考訳): シンボリックルール学習者は解釈可能な解を生成するが、入力をシンボル的にエンコードする必要がある。
ニューラルネットワークを用いて生データを潜在記号の概念にマッピングすることで、ニューロシンボリックアプローチはこの問題を克服する。
ニューラルネットワークとシンボリックコンポーネントを共同でトレーニングするのは、遅くて不安定な学習のため難しいため、既存のシステムの多くは、ネットワークをトレーニングするために手動のルールに依存している。
neuralfastlasは、ニューラルネットワークをシンボリック学習者と共同でトレーニングする、スケーラブルで高速なエンドツーエンドアプローチである。
与えられたタスクに対して、NeuralFastLASは関連するルールのセットを計算し、最適なシンボリックソリューションを含むことを証明し、これらのルールを使用してニューラルネットワークをトレーニングし、最終的にネットワーク予測を考慮してタスクに対する最適なシンボリックソリューションを見つける。
このアプローチの重要な特徴は、トレーニング中の安定性を改善するためにニューラルネットワークをトレーニングしながら、ルールの後方分布を学習することである。
最終解の正しさを保証するために,ネットワークトレーニングにおける十分な条件に関する理論的結果を提供する。
実験の結果,neuralfastlasは算術や論理的なタスクにおいて最先端の精度を実現でき,訓練時間は,他の共同学習したニューロシンボリック法よりも最大2桁速いことがわかった。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Injecting Logical Constraints into Neural Networks via Straight-Through
Estimators [5.6613898352023515]
ニューラルネットワーク学習に離散的な論理的制約を注入することは、ニューロシンボリックAIにおける大きな課題の1つだ。
ニューラルネットワークの学習に論理的制約を組み込むために、バイナリニューラルネットワークをトレーニングするために導入されたストレートスルー推定器が効果的に適用できることがわかった。
論文 参考訳(メタデータ) (2023-07-10T05:12:05Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Supervised Learning with First-to-Spike Decoding in Multilayer Spiking
Neural Networks [0.0]
本稿では,多層スパイキングニューラルネットワークを学習して分類問題を解くための教師あり学習手法を提案する。
提案した学習規則は、隠れニューロンが発する複数のスパイクをサポートし、決定論的出力層によって生成された最初のスパイク応答に依存することにより安定である。
また、入力データのコンパクト表現を形成するために、いくつかの異なるスパイクベースの符号化戦略についても検討する。
論文 参考訳(メタデータ) (2020-08-16T15:34:48Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。