論文の概要: Neural logic programs and neural nets
- arxiv url: http://arxiv.org/abs/2406.11888v1
- Date: Thu, 13 Jun 2024 19:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 00:55:56.867721
- Title: Neural logic programs and neural nets
- Title(参考訳): ニューラル・ロジック・プログラムとニューラル・ネット
- Authors: Christian Antić,
- Abstract要約: まず、(ブール)ニューラルネットの解集合セマンティクスを定義し、まず第一原理からニューラルネットワークプログラムのクラスを紹介し、ネットとプログラムが等価であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-symbolic integration aims to combine the connectionist subsymbolic with the logical symbolic approach to artificial intelligence. In this paper, we first define the answer set semantics of (boolean) neural nets and then introduce from first principles a class of neural logic programs and show that nets and programs are equivalent.
- Abstract(参考訳): ニューラルシンボリック統合は、コネクショナリズムのサブシンボリックと、人工知能に対する論理的シンボリックアプローチを組み合わせることを目的としている。
本稿では,まず(ブール)ニューラルネットの解集合セマンティクスを定義し,まず第一原理からニューラルネットワークプログラムのクラスを紹介し,ネットとプログラムが等価であることを示す。
関連論文リスト
- Exploring knowledge graph-based neural-symbolic system from application perspective [0.0]
AIシステムにおけるヒューマンライクな推論と解釈可能性の実現は、依然として大きな課題である。
ニューラルネットワークをシンボリックシステムと統合するNeural-Symbolicパラダイムは、より解釈可能なAIへの有望な経路を提供する。
本稿では,知識グラフに基づくニューラルシンボリック統合の最近の進歩について考察する。
論文 参考訳(メタデータ) (2024-05-06T14:40:50Z) - Neural Markov Prolog [57.13568543360899]
本稿では,一階述語論理とニューラルネットワーク設計を橋渡しする手段として,言語Neural Markov Prolog (NMP)を提案する。
NMPは、画像、テキスト、リレーショナルデータベース、その他のターゲットデータ型のアーキテクチャを簡単に生成および提示することができる。
論文 参考訳(メタデータ) (2023-11-27T21:41:47Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Extensions to Generalized Annotated Logic and an Equivalent Neural
Architecture [4.855957436171202]
本稿では,ニューロシンボリックシステムに対する望ましい基準のリストを提案し,既存のアプローチのいくつかがこれらの基準にどう対処するかを検討する。
次に、等価なニューラルアーキテクチャの作成を可能にするアノテーション付き一般化論理の拡張を提案する。
トレーニングプロセスの継続的な最適化に依存する従来のアプローチとは異なり、当社のフレームワークは、離散最適化を使用する二項化ニューラルネットワークとして設計されている。
論文 参考訳(メタデータ) (2023-02-23T17:39:46Z) - Knowledge-based Analogical Reasoning in Neuro-symbolic Latent Spaces [20.260546238369205]
ニューラルネットワークのパターン認識能力とシンボリック推論と背景知識を組み合わせたフレームワークを提案する。
ニューラルアルゴリズム推論」アプローチ [DeepMind 2020] からインスピレーションを得て、問題固有のバックグラウンド知識を使用します。
我々は、RAVENのプログレッシブ・マトリクスにおける視覚的類似性の問題でこれを検証し、人間のパフォーマンスと競合する精度を実現する。
論文 参考訳(メタデータ) (2022-09-19T04:03:20Z) - Neural-Symbolic Integration for Interactive Learning and Conceptual
Grounding [1.14219428942199]
本稿では,抽象概念の説明と対話型学習のためのニューラルシンボリック統合を提案する。
ユーザとのインタラクションは、ニューラルモデルのリビジョンを確認または拒否する。
このアプローチはLogic NetworkフレームワークとConcept Activation Vectorsを使って説明され、Conal Neural Networkに適用される。
論文 参考訳(メタデータ) (2021-12-22T11:24:48Z) - Improving Coherence and Consistency in Neural Sequence Models with
Dual-System, Neuro-Symbolic Reasoning [49.6928533575956]
我々は、神経系1と論理系2の間を仲介するために神経推論を用いる。
強靭なストーリー生成とグラウンドド・インストラクション・フォローリングの結果、このアプローチは神経系世代におけるコヒーレンスと精度を高めることができることを示した。
論文 参考訳(メタデータ) (2021-07-06T17:59:49Z) - pix2rule: End-to-end Neuro-symbolic Rule Learning [84.76439511271711]
本稿では,画像のオブジェクトへの処理,学習関係,論理規則に関する完全なニューロシンボリックな手法を提案する。
主な貢献は、シンボリックリレーションとルールを抽出できるディープラーニングアーキテクチャにおける差別化可能なレイヤである。
我々のモデルは最先端のシンボリックラーナーを超えてスケールし、ディープリレーショナルニューラルネットワークアーキテクチャよりも優れていることを実証する。
論文 参考訳(メタデータ) (2021-06-14T15:19:06Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。