論文の概要: Logic of Differentiable Logics: Towards a Uniform Semantics of DL
- arxiv url: http://arxiv.org/abs/2303.10650v2
- Date: Mon, 15 May 2023 13:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 22:59:18.627986
- Title: Logic of Differentiable Logics: Towards a Uniform Semantics of DL
- Title(参考訳): 微分可能論理の論理:dlの一様意味論に向けて
- Authors: Natalia \'Slusarz, Ekaterina Komendantskaya, Matthew L. Daggitt,
Robert Stewart, Kathrin Stark
- Abstract要約: 論理的仕様を満たすためにニューラルネットワークを訓練する方法として、微分論理(DL)が提案されている。
本稿では、微分可能論理学(LDL)と呼ばれるDLを定義するメタ言語を提案する。
我々は,既存のDLの理論的特性を確立するためにLDLを使用し,ニューラルネットワークの検証において実験的な研究を行う。
- 参考スコア(独自算出の注目度): 0.21524202919676094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable logics (DL) have recently been proposed as a method of
training neural networks to satisfy logical specifications. A DL consists of a
syntax in which specifications are stated and an interpretation function that
translates expressions in the syntax into loss functions. These loss functions
can then be used during training with standard gradient descent algorithms. The
variety of existing DLs and the differing levels of formality with which they
are treated makes a systematic comparative study of their properties and
implementations difficult. This paper remedies this problem by suggesting a
meta-language for defining DLs that we call the Logic of Differentiable Logics,
or LDL. Syntactically, it generalises the syntax of existing DLs to FOL, and
for the first time introduces the formalism for reasoning about vectors and
learners. Semantically, it introduces a general interpretation function that
can be instantiated to define loss functions arising from different existing
DLs. We use LDL to establish several theoretical properties of existing DLs,
and to conduct their empirical study in neural network verification.
- Abstract(参考訳): 近年、論理仕様を満たすためにニューラルネットワークをトレーニングする方法として微分論理(DL)が提案されている。
DLは仕様が記述される構文と、構文の式を損失関数に変換する解釈関数から構成される。
これらの損失関数は、標準勾配降下アルゴリズムでトレーニング中に使用できる。
既存のDLの多様性とそれらが扱われる形式レベルの違いは、それらの特性と実装に関する体系的な比較研究を困難にしている。
本稿では、微分可能論理学(LDL)と呼ばれるDLを定義するメタ言語を提案することにより、この問題を是正する。
構文的には、既存のDLの構文をFOLに一般化し、ベクトルと学習者について推論するフォーマリズムを初めて導入する。
意味的には、既存のDLから生じる損失関数を定義するためにインスタンス化できる一般的な解釈関数を導入する。
我々はLDLを用いて、既存のDLの理論的特性を確立し、ニューラルネットワーク検証における実証的研究を行う。
関連論文リスト
- Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Logic-induced Diagnostic Reasoning for Semi-supervised Semantic
Segmentation [85.12429517510311]
LogicDiagは、セマンティックセグメンテーションのためのニューラルネットワークによる半教師付き学習フレームワークである。
私たちの重要な洞察は、記号的知識によって識別される擬似ラベル内の衝突は、強いが一般的に無視される学習信号として機能する、ということです。
本稿では,論理規則の集合として意味論的概念の構造的抽象化を定式化するデータ・ハングリーセグメンテーションシナリオにおけるLogicDiagの実践的応用について紹介する。
論文 参考訳(メタデータ) (2023-08-24T06:50:07Z) - Lattice-preserving $\mathcal{ALC}$ ontology embeddings with saturation [50.05281461410368]
OWL表現の埋め込みを生成するため,順序保存型埋め込み法を提案する。
本手法は,いくつかの知識ベース完了タスクにおいて,最先端の組込み手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-11T22:27:51Z) - Dual Box Embeddings for the Description Logic EL++ [16.70961576041243]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - A Formal Comparison between Datalog-based Languages for Stream Reasoning
(extended version) [4.441335529279506]
本稿では,ストリーム上の推論のための2つの論理型言語の相対表現性について検討する。
制約なしでは、2つの言語は相容れないことを示し、他の言語を通して表現できる各言語の断片を識別する。
論文 参考訳(メタデータ) (2022-08-26T15:27:21Z) - Learning First-Order Rules with Differentiable Logic Program Semantics [12.360002779872373]
微分型一階規則学習者(DFOL)と呼ばれる微分型帰納的論理プログラミングモデルを導入する。
DFOLは、LPの解釈可能な行列表現を探索することにより、関係事実から正しいLPを見つける。
実験結果から,DFOLは精度が高く,堅牢で,スケーラブルで,安価で微分可能なICPモデルであることが示唆された。
論文 参考訳(メタデータ) (2022-04-28T15:33:43Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - SAT-Based Rigorous Explanations for Decision Lists [17.054229845836332]
決定リスト(DL)は、機械学習(ML)の分類問題のための幅広い用途を見つけます。
解釈性はいくつかのdlにとって不可解な目標であると主張する。
本稿では,dlsの計算説明は計算困難であることを示す。
論文 参考訳(メタデータ) (2021-05-14T12:06:12Z) - Defeasible reasoning in Description Logics: an overview on DL^N [10.151828072611426]
DLNについて概説し、基礎となる知識工学の要件と、DLNを連続したセマンティックおよび計算上の欠点から保護する特徴を解説する。
また, DLNと他の非単調な意味論を比較し, KLMとDLNの関係を明らかにする。
論文 参考訳(メタデータ) (2020-09-10T16:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。