論文の概要: Semantic Probabilistic Layers for Neuro-Symbolic Learning
- arxiv url: http://arxiv.org/abs/2206.00426v1
- Date: Wed, 1 Jun 2022 12:02:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 15:45:05.245379
- Title: Semantic Probabilistic Layers for Neuro-Symbolic Learning
- Title(参考訳): セマンティック確率層によるニューロ・シンボリック学習
- Authors: Kareem Ahmed, Stefano Teso, Kai-Wei Chang, Guy Van den Broeck, Antonio
Vergari
- Abstract要約: 我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
- 参考スコア(独自算出の注目度): 83.25785999205932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design a predictive layer for structured-output prediction (SOP) that can
be plugged into any neural network guaranteeing its predictions are consistent
with a set of predefined symbolic constraints. Our Semantic Probabilistic Layer
(SPL) can model intricate correlations, and hard constraints, over a structured
output space all while being amenable to end-to-end learning via maximum
likelihood. SPLs combine exact probabilistic inference with logical reasoning
in a clean and modular way, learning complex distributions and restricting
their support to solutions of the constraint. As such, they can faithfully, and
efficiently, model complex SOP tasks beyond the reach of alternative
neuro-symbolic approaches. We empirically demonstrate that SPLs outperform
these competitors in terms of accuracy on challenging SOP tasks including
hierarchical multi-label classification, pathfinding and preference learning,
while retaining perfect constraint satisfaction.
- Abstract(参考訳): 我々は、ニューラルネットワークに差し込むことができる構造化出力予測(SOP)の予測層を設計し、予測が予め定義されたシンボリック制約のセットと一致していることを保証する。
セマンティクス確率層(spl)は、構造的なアウトプット空間上で複雑な相関やハード制約をモデル化できると同時に、最大確率でエンドツーエンドの学習に適しています。
SPLは正確な確率的推論と論理的推論をクリーンでモジュラーな方法で組み合わせ、複雑な分布を学習し、制約の解へのサポートを制限する。
そのため、彼らは、他のニューロシンボリックアプローチの範囲を超えた複雑なSOPタスクを忠実かつ効率的にモデル化することができる。
我々は,SPL が,階層的マルチラベル分類,パスフィンディング,選好学習など,SOP の課題において,完全な制約満足度を維持しながら,これらの課題の精度において,競争相手よりも優れていることを実証的に実証した。
関連論文リスト
- Learning Logic Specifications for Policy Guidance in POMDPs: an
Inductive Logic Programming Approach [57.788675205519986]
我々は任意の解法によって生成されるPOMDP実行から高品質なトレースを学習する。
我々は、データと時間効率のIndu Logic Programming(ILP)を利用して、解釈可能な信念に基づくポリシー仕様を生成する。
ASP(Answer Set Programming)で表現された学習は、ニューラルネットワークよりも優れた性能を示し、より少ない計算時間で最適な手作りタスクに類似していることを示す。
論文 参考訳(メタデータ) (2024-02-29T15:36:01Z) - A Neuro-Symbolic Approach to Multi-Agent RL for Interpretability and
Probabilistic Decision Making [42.503612515214044]
マルチエージェント強化学習(MARL)は、複数のエージェントが共存し、共有リソースと競合するシステムにおいて、実行時の意思決定に適している。
ディープラーニングベースの一般的なMARLソリューションを実世界の問題に適用することは、解釈可能性、サンプル効率、部分観測可能性などの問題に悩まされる。
本稿では,ニューロシンボリック手法を用いて,意思決定を分散協調的MARLエージェントで処理するイベント駆動型定式化を提案する。
論文 参考訳(メタデータ) (2024-02-21T00:16:08Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - dPASP: A Comprehensive Differentiable Probabilistic Answer Set
Programming Environment For Neurosymbolic Learning and Reasoning [0.0]
本稿では,ニューロシンボリック推論のための新しい宣言型論理プログラミングフレームワークdPASPを提案する。
非決定論的・矛盾的・不完全・統計的知識を表現できる確率論的論理プログラムのセマンティクスについて論じる。
次に、いくつかのサンプルプログラムとともに、言語での推論と学習をサポートする実装されたパッケージについて説明する。
論文 参考訳(メタデータ) (2023-08-05T19:36:58Z) - Scalable Neural-Probabilistic Answer Set Programming [18.136093815001423]
本稿では、NPP(Neural-Probabilistic Predicates)と解集合プログラミング(ASP)を介して統合された論理プログラムからなる新しいDPPLであるSLASHを紹介する。
予測性能を犠牲にすることなく、推論を高速化し、(地上)プログラムの無意味な部分を抜粋する方法を示す。
我々は、MNIST追加のベンチマークタスクやVQA(Visual Question Answering)など、様々なタスクでSLASHを評価する。
論文 参考訳(メタデータ) (2023-06-14T09:45:29Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - SLASH: Embracing Probabilistic Circuits into Neural Answer Set
Programming [15.814914345000574]
SLASH(Deep Probabilistic Language:DPPL)を紹介します。
SLASHのコアとなるのは、NPP(Neural-Probabilistic Predicates)と、応答セットプログラミングを通じて統合された論理プログラムである。
我々は,MNIST加算のベンチマークデータとDPPLの欠落データ予測や最先端性能のセット予測といった新しいタスクに基づいてSLASHを評価する。
論文 参考訳(メタデータ) (2021-10-07T12:35:55Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。