論文の概要: A Scalable Approach to Probabilistic Neuro-Symbolic Verification
- arxiv url: http://arxiv.org/abs/2502.03274v1
- Date: Wed, 05 Feb 2025 15:29:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:27:32.075653
- Title: A Scalable Approach to Probabilistic Neuro-Symbolic Verification
- Title(参考訳): 確率論的ニューロシンボリック検証へのスケーラブルなアプローチ
- Authors: Vasileios Manginas, Nikolaos Manginas, Edward Stevinson, Sherwin Varghese, Nikos Katzouris, Georgios Paliouras, Alessio Lomuscio,
- Abstract要約: Neuro-Symbolic Artificial Intelligence (NeSy AI)は、ニューラルネットワークとシンボリック推論を統合するための有望な方向として登場した。
我々は、そのようなNeSy確率論的推論システムの堅牢性を正式に検証する問題に対処する。
確率的NeSy系の近似的・緩和的検証のための最初の手法を提案する。
- 参考スコア(独自算出の注目度): 14.558484523699748
- License:
- Abstract: Neuro-Symbolic Artificial Intelligence (NeSy AI) has emerged as a promising direction for integrating neural learning with symbolic reasoning. In the probabilistic variant of such systems, a neural network first extracts a set of symbols from sub-symbolic input, which are then used by a symbolic component to reason in a probabilistic manner towards answering a query. In this work, we address the problem of formally verifying the robustness of such NeSy probabilistic reasoning systems, therefore paving the way for their safe deployment in critical domains. We analyze the complexity of solving this problem exactly, and show that it is $\mathrm{NP}^{\# \mathrm{P}}$-hard. To overcome this issue, we propose the first approach for approximate, relaxation-based verification of probabilistic NeSy systems. We demonstrate experimentally that the proposed method scales exponentially better than solver-based solutions and apply our technique to a real-world autonomous driving dataset, where we verify a safety property under large input dimensionalities and network sizes.
- Abstract(参考訳): Neuro-Symbolic Artificial Intelligence (NeSy AI)は、ニューラルネットワークとシンボリック推論を統合するための有望な方向として登場した。
このようなシステムの確率的変種において、ニューラルネットワークはまず、サブシンボリック入力からシンボルの集合を抽出し、その後、シンボルコンポーネントによって使われ、確率論的にクエリに応答する。
本研究では,このようなNeSy確率論的推論システムのロバスト性を公式に検証する問題に対処する。
我々は、この問題を正確に解く複雑さを分析し、それが$\mathrm{NP}^{\# \mathrm{P}}$-hardであることを示す。
この問題を克服するために,確率的NeSyシステムの近似的,緩和的検証のための最初のアプローチを提案する。
本研究では,提案手法が解解法よりも指数関数的に拡張できることを実験的に実証し,本手法を実世界の自律運転データセットに適用し,大規模な入力次元とネットワークサイズで安全性を検証した。
関連論文リスト
- On the Promise for Assurance of Differentiable Neurosymbolic Reasoning Paradigms [9.071347361654931]
我々は、データ効率のモデルを作成する新しい手法である、エンド・ツー・エンドの完全微分可能なニューロシンボリックシステムの保証を評価する。
エンド・ツー・エンドのニューロシンボリックな手法は、データ効率を超える保証のユニークな機会を提示する。
論文 参考訳(メタデータ) (2025-02-13T03:29:42Z) - Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - A Complexity Map of Probabilistic Reasoning for Neurosymbolic Classification Techniques [6.775534755081169]
我々は4つの確率論的推論問題に対する統一的な形式論を発展させる。
そして,いくつかの既知の新しいトラクタビリティの結果を,確率論的推論の1つの複雑性マップにコンパイルする。
我々は、この複雑性マップに基づいて、いくつかのテクニックのスケーラビリティのドメインを特徴づける。
論文 参考訳(メタデータ) (2024-04-12T11:31:37Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - A-NeSI: A Scalable Approximate Method for Probabilistic Neurosymbolic
Inference [11.393328084369783]
近年、DeepProbLogのような確率的ニューロシンボリックラーニング(PNL)のためのフレームワークが指数時間正確な推論を行う。
近似推論にスケーラブルなニューラルネットワークを用いるPNLの新しいフレームワークである近似ニューロシンボリック推論(A-NeSI)を紹介する。
論文 参考訳(メタデータ) (2022-12-23T15:24:53Z) - Knowledge-based Analogical Reasoning in Neuro-symbolic Latent Spaces [20.260546238369205]
ニューラルネットワークのパターン認識能力とシンボリック推論と背景知識を組み合わせたフレームワークを提案する。
ニューラルアルゴリズム推論」アプローチ [DeepMind 2020] からインスピレーションを得て、問題固有のバックグラウンド知識を使用します。
我々は、RAVENのプログレッシブ・マトリクスにおける視覚的類似性の問題でこれを検証し、人間のパフォーマンスと競合する精度を実現する。
論文 参考訳(メタデータ) (2022-09-19T04:03:20Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。