論文の概要: Differentiable Fuzzy $\mathcal{ALC}$: A Neural-Symbolic Representation
Language for Symbol Grounding
- arxiv url: http://arxiv.org/abs/2211.12006v1
- Date: Tue, 22 Nov 2022 04:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:46:26.810329
- Title: Differentiable Fuzzy $\mathcal{ALC}$: A Neural-Symbolic Representation
Language for Symbol Grounding
- Title(参考訳): 微分可能なファジィ$\mathcal{ALC}$:記号接地のためのニューラルシンボリック表現言語
- Authors: Xuan Wu, Xinhao Zhu, Yizheng Zhao, Xinyu Dai
- Abstract要約: ニューラルシンボリックコンピューティングは、堅牢なニューラルラーニングとサウンドシンボリック推論を単一のフレームワークに統合することを目的としている。
所望のセマンティクスを持つニューラルシンボリック表現言語として,微分可能なファジィ$mathcalALC$を提案する。
実験結果から,DF-$mathcalALC$と規則に基づく損失は,教師なし学習方式で画像オブジェクト検出器の性能を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 22.885795566729424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-symbolic computing aims at integrating robust neural learning and
sound symbolic reasoning into a single framework, so as to leverage the
complementary strengths of both of these, seemingly unrelated (maybe even
contradictory) AI paradigms. The central challenge in neural-symbolic computing
is to unify the formulation of neural learning and symbolic reasoning into a
single framework with common semantics, that is, to seek a joint representation
between a neural model and a logical theory that can support the basic
grounding learned by the neural model and also stick to the semantics of the
logical theory. In this paper, we propose differentiable fuzzy $\mathcal{ALC}$
(DF-$\mathcal{ALC}$) for this role, as a neural-symbolic representation
language with the desired semantics. DF-$\mathcal{ALC}$ unifies the description
logic $\mathcal{ALC}$ and neural models for symbol grounding; in particular, it
infuses an $\mathcal{ALC}$ knowledge base into neural models through
differentiable concept and role embeddings. We define a hierarchical loss to
the constraint that the grounding learned by neural models must be semantically
consistent with $\mathcal{ALC}$ knowledge bases. And we find that capturing the
semantics in grounding solely by maximizing satisfiability cannot revise
grounding rationally. We further define a rule-based loss for DF adapting to
symbol grounding problems. The experiment results show that DF-$\mathcal{ALC}$
with rule-based loss can improve the performance of image object detectors in
an unsupervised learning way, even in low-resource situations.
- Abstract(参考訳): ニューラルシンボリックコンピューティングは、堅牢なニューラルラーニングとサウンドシンボリック推論を単一のフレームワークに統合することを目的としており、これら2つの相補的な強みを利用する。
ニューラルシンボリックコンピューティングにおける中心的な課題は、ニューラルネットワークとシンボリック推論の定式化を、共通の意味論を持つ1つのフレームワークに統一することである。
本稿では,この役割に対する微分可能なファジィ$\mathcal{ALC}$ (DF-$\mathcal{ALC}$) を,所望の意味を持つニューラルシンボリック表現言語として提案する。
DF-$\mathcal{ALC}$は、説明論理の$\mathcal{ALC}$と記号接地のためのニューラルモデルを統合する。
神経モデルによって学習される基底は、$\mathcal{alc}$ の知識ベースと意味的に一貫性を持たなければならないという制約に対する階層的損失を定義する。
そして, 満足度を最大化することで, 接地における意味論を捉えることは, 合理的に接地を是正できないことがわかった。
さらに,シンボル接地問題に適応するDFの規則に基づく損失を定義する。
その結果, DF-$\mathcal{ALC}$は, 低リソース環境においても, 教師なし学習方式で画像オブジェクト検出器の性能を向上させることができた。
関連論文リスト
- Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Closed-Form Interpretation of Neural Network Classifiers with Symbolic Gradients [0.7832189413179361]
人工ニューラルネットワークにおいて、任意の単一ニューロンのクローズドフォーム解釈を見つけるための統一的なフレームワークを紹介します。
ニューラルネットワーク分類器を解釈して、決定境界に符号化された概念のクローズドフォーム表現を明らかにする。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Semantic Segmentation using Neural Ordinary Differential Equations [3.7588109000722727]
残留ネットワークでは、隠蔽層の離散列を持つ代わりに、隠蔽状態の連続力学の微分をODEでパラメータ化することができる。
われわれのニューラルODEは、トレーニング用メモリの57%、テスト用メモリの42%、パラメータの68%を減らし、最先端の結果を達成することができることを示した。
論文 参考訳(メタデータ) (2022-09-18T22:13:55Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Rule Extraction from Binary Neural Networks with Convolutional Rules for
Model Validation [16.956140135868733]
本稿では,畳み込みニューラルネットワーク(CNN)を用いて抽出可能な論理則である一階畳み込み規則について紹介する。
提案手法は,ローカルサーチを用いたバイナリニューラルネットワークからのルール抽出に基づいている。
実験の結果,提案手法はニューラルネットワークの機能をモデル化できると同時に,解釈可能な論理ルールを生成できることがわかった。
論文 参考訳(メタデータ) (2020-12-15T17:55:53Z) - Abductive Knowledge Induction From Raw Data [12.868722327487752]
本稿では,帰納的メタ解釈学習(Meta_Abd$)を提案する。
実験の結果,$Meta_Abd$は予測精度とデータ効率で比較したシステムより優れることがわかった。
論文 参考訳(メタデータ) (2020-10-07T16:33:28Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。