論文の概要: Extending Answer Set Programs with Neural Networks
- arxiv url: http://arxiv.org/abs/2009.10256v1
- Date: Tue, 22 Sep 2020 00:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:33:33.236309
- Title: Extending Answer Set Programs with Neural Networks
- Title(参考訳): ニューラルネットワークによる解集合プログラムの拡張
- Authors: Zhun Yang
- Abstract要約: ニューラルネットワークを導入することで、応答セットプログラムをシンプルに拡張するNeurASPを提案する。
我々は、NeurASPがトレーニング済みニューラルネットワークの知覚精度を向上できるだけでなく、論理ルールによる制約を与えることで、ニューラルネットワークをより良くトレーニングできることを示した。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of low-level perception with high-level reasoning is one of
the oldest problems in Artificial Intelligence. Recently, several proposals
were made to implement the reasoning process in complex neural network
architectures. While these works aim at extending neural networks with the
capability of reasoning, a natural question that we consider is: can we extend
answer set programs with neural networks to allow complex and high-level
reasoning on neural network outputs? As a preliminary result, we propose
NeurASP -- a simple extension of answer set programs by embracing neural
networks where neural network outputs are treated as probability distributions
over atomic facts in answer set programs. We show that NeurASP can not only
improve the perception accuracy of a pre-trained neural network, but also help
to train a neural network better by giving restrictions through logic rules.
However, training with NeurASP would take much more time than pure neural
network training due to the internal use of a symbolic reasoning engine. For
future work, we plan to investigate the potential ways to solve the scalability
issue of NeurASP. One potential way is to embed logic programs directly in
neural networks. On this route, we plan to first design a SAT solver using
neural networks, then extend such a solver to allow logic programs.
- Abstract(参考訳): 低レベル知覚と高レベル推論の統合は、人工知能における最も古い問題の1つである。
近年,複雑なニューラルネットワークアーキテクチャにおいて推論プロセスを実装するための提案がなされている。
これらは推論機能を備えたニューラルネットワークの拡張を目的としていますが、私たちが考える自然な疑問は、 ニューラルネットワークによる応答セットプログラムを拡張して、ニューラルネットワーク出力の複雑かつハイレベルな推論を可能にすることができるか?
そこで本研究では,ニューラルネットワークの出力をアトミック・ファクトの確率分布として扱うニューラルネットワークを導入することで,解集合プログラムの簡単な拡張であるneuraspを提案する。
我々は、NeurASPがトレーニング済みニューラルネットワークの知覚精度を向上できるだけでなく、論理ルールによる制約を与えることで、ニューラルネットワークをより良くトレーニングできることを示した。
しかし、neuraspでのトレーニングは、シンボリック推論エンジンの内部使用のため、純粋なニューラルネットワークのトレーニングよりもはるかに時間がかかる。
今後の取り組みとして、neuraspのスケーラビリティ問題を解決する潜在的な方法について検討する予定です。
可能性の1つは、論理プログラムを直接ニューラルネットワークに埋め込む方法である。
この経路では,まずニューラルネットワークを用いたsatソルバの設計を行い,その解法を拡張して論理プログラムを実現する。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Bridging Logic and Learning: A Neural-Symbolic Approach for Enhanced
Reasoning in Neural Models (ASPER) [0.13053649021965597]
本稿では,学習推論タスクにおけるニューラルモデルの性能向上を目的としたアプローチを提案する。
これを実現するために、Answer Set Programmingソルバとドメイン固有の専門知識を統合する。
モデルは、トレーニングとテストのためにたった12のパズルを使用して、スドゥークパズルの解法を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-12-18T19:06:00Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Taming Binarized Neural Networks and Mixed-Integer Programs [2.7624021966289596]
バイナライズされたニューラルネットワークはテーム表現を許容することを示す。
これにより、Bolte et al. のフレームワークを暗黙の微分に使用できる。
このアプローチは、より広範な混合整数プログラムのクラスにも使用することができる。
論文 参考訳(メタデータ) (2023-10-05T21:04:16Z) - NeurASP: Embracing Neural Networks into Answer Set Programming [5.532477732693001]
NeurASPは、ニューラルネットワークを採用することで、応答セットプログラムの単純な拡張である。
ニューラルネットワーク出力を応答集合プログラムの原子事実上の確率分布として扱うことにより、NeurASPはサブシンボリックおよびシンボリック計算を統合するためのシンプルで効果的な方法を提供する。
論文 参考訳(メタデータ) (2023-07-15T04:03:17Z) - A Neural Lambda Calculus: Neurosymbolic AI meets the foundations of
computing and functional programming [0.0]
我々は、プログラム全体の実行方法を学ぶニューラルネットワークの能力を分析する。
統合型ニューラルラーニングと電卓形式化の導入について紹介する。
論文 参考訳(メタデータ) (2023-04-18T20:30:16Z) - The mathematics of adversarial attacks in AI -- Why deep learning is
unstable despite the existence of stable neural networks [69.33657875725747]
固定アーキテクチャを用いた分類問題に対するニューラルネットワークのトレーニングに基づくトレーニング手順が,不正確あるいは不安定なニューラルネットワーク(正確であれば)を生み出すことを証明している。
鍵となるのは、安定かつ正確なニューラルネットワークは入力に依存する可変次元を持つ必要があり、特に、可変次元は安定性に必要な条件である。
我々の結果は、正確で安定したニューラルネットワークが存在するというパラドックスを示しているが、現代のアルゴリズムはそれらを計算していない。
論文 参考訳(メタデータ) (2021-09-13T16:19:25Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。