論文の概要: Making Logic Learnable With Neural Networks
- arxiv url: http://arxiv.org/abs/2002.03847v3
- Date: Sun, 7 Jun 2020 18:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 07:23:18.370901
- Title: Making Logic Learnable With Neural Networks
- Title(参考訳): ニューラルネットワークで論理学を学べる
- Authors: Tobias Brudermueller, Dennis L. Shung, Adrian J. Stanley, Johannes
Stegmaier, Smita Krishnaswamy
- Abstract要約: ニューラルネットワークと論理回路の利点を組み合わせた新しい論理学習パイプラインを提案する。
私たちのパイプラインはまず、分類タスクでニューラルネットワークをトレーニングし、次にこれをランダムな森林に、次に AND-Inverterロジックに翻訳します。
- 参考スコア(独自算出の注目度): 5.858798189578114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While neural networks are good at learning unspecified functions from
training samples, they cannot be directly implemented in hardware and are often
not interpretable or formally verifiable. On the other hand, logic circuits are
implementable, verifiable, and interpretable but are not able to learn from
training data in a generalizable way. We propose a novel logic learning
pipeline that combines the advantages of neural networks and logic circuits.
Our pipeline first trains a neural network on a classification task, and then
translates this, first to random forests, and then to AND-Inverter logic. We
show that our pipeline maintains greater accuracy than naive translations to
logic, and minimizes the logic such that it is more interpretable and has
decreased hardware cost. We show the utility of our pipeline on a network that
is trained on biomedical data. This approach could be applied to patient care
to provide risk stratification and guide clinical decision-making.
- Abstract(参考訳): ニューラルネットワークは、トレーニングサンプルから特定されていない関数を学習するのに優れているが、ハードウェアに直接実装することはできない。
一方、論理回路は実装可能であり、検証可能であり、解釈可能であるが、一般化可能な方法でトレーニングデータから学べない。
本稿では,ニューラルネットワークと論理回路の利点を組み合わせた新しい論理学習パイプラインを提案する。
私たちのパイプラインはまず、分類タスクでニューラルネットワークをトレーニングし、次にこれをランダムな森林に、次に AND-Inverterロジックに翻訳します。
我々のパイプラインは論理へのナイーブ翻訳よりも高い精度を保ち、より解釈可能で、ハードウェアコストが低減するように論理を最小化する。
バイオメディカルデータに基づいてトレーニングしたネットワーク上で,パイプラインの有用性を示す。
このアプローチは、リスク階層化を提供し、臨床意思決定を導くために患者ケアに適用することができる。
関連論文リスト
- Learning Interpretable Differentiable Logic Networks [3.8064485653035987]
解釈可能な微分可能論理ネットワーク(DLN)を学習するための新しい手法を提案する。
我々はこれらのネットワークを、入力の双対化、二項論理演算、ニューロン間の接続を通じて、個々の成分の軟化と差別化によって訓練する。
20の分類タスクの実験結果は、従来のNNと同等かそれ以上の精度で、微分可能な論理ネットワークが達成可能であることを示している。
論文 参考訳(メタデータ) (2024-07-04T21:58:26Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Injecting Logical Constraints into Neural Networks via Straight-Through
Estimators [5.6613898352023515]
ニューラルネットワーク学習に離散的な論理的制約を注入することは、ニューロシンボリックAIにおける大きな課題の1つだ。
ニューラルネットワークの学習に論理的制約を組み込むために、バイナリニューラルネットワークをトレーニングするために導入されたストレートスルー推定器が効果的に適用できることがわかった。
論文 参考訳(メタデータ) (2023-07-10T05:12:05Z) - Learning Language Representations with Logical Inductive Bias [19.842271716111153]
より優れた言語表現学習のための新しい論理帰納バイアスについて検討する。
我々はこの新たな帰納バイアスを符号化するために、FOLNetという新しいニューラルネットワークを開発した。
変換器の自己アテンションモジュールは2つのニューラルロジック演算子によって構成できることがわかった。
論文 参考訳(メタデータ) (2023-02-19T02:21:32Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Interpretable Fault Diagnosis of Rolling Element Bearings with Temporal
Logic Neural Network [11.830457329372283]
本稿では、時間論理ニューラルネットワーク(TLNN)と呼ばれる新しいニューラルネットワーク構造を提案する。
TLNNは、従来のニューロンネットワークの優れた特性を保ちながら、形式言語で自身を形式的に解釈する。
論文 参考訳(メタデータ) (2022-04-15T11:54:30Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。