論文の概要: logLTN: Differentiable Fuzzy Logic in the Logarithm Space
- arxiv url: http://arxiv.org/abs/2306.14546v1
- Date: Mon, 26 Jun 2023 09:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 14:17:36.539092
- Title: logLTN: Differentiable Fuzzy Logic in the Logarithm Space
- Title(参考訳): logltn:対数空間における微分可能ファジィ論理
- Authors: Samy Badreddine, Luciano Serafini, Michael Spranger
- Abstract要約: 文学におけるトレンドは、論理記号とニューラルネットワークとファジィ意味論を接地することで、損失関数の公理と事実を統合することである。
本稿では,対数空間の終端を基底とするファジィ演算子の構成について述べる。
以上の結果から,提案した構成が現状よりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 11.440949097704943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI community is increasingly focused on merging logic with deep learning
to create Neuro-Symbolic (NeSy) paradigms and assist neural approaches with
symbolic knowledge. A significant trend in the literature involves integrating
axioms and facts in loss functions by grounding logical symbols with neural
networks and operators with fuzzy semantics. Logic Tensor Networks (LTN) is one
of the main representatives in this category, known for its simplicity,
efficiency, and versatility. However, it has been previously shown that not all
fuzzy operators perform equally when applied in a differentiable setting.
Researchers have proposed several configurations of operators, trading off
between effectiveness, numerical stability, and generalization to different
formulas. This paper presents a configuration of fuzzy operators for grounding
formulas end-to-end in the logarithm space. Our goal is to develop a
configuration that is more effective than previous proposals, able to handle
any formula, and numerically stable. To achieve this, we propose semantics that
are best suited for the logarithm space and introduce novel simplifications and
improvements that are crucial for optimization via gradient-descent. We use LTN
as the framework for our experiments, but the conclusions of our work apply to
any similar NeSy framework. Our findings, both formal and empirical, show that
the proposed configuration outperforms the state-of-the-art and that each of
our modifications is essential in achieving these results.
- Abstract(参考訳): AIコミュニティは、論理とディープラーニングを組み合わせることで、Neuro-Symbolic(NeSy)パラダイムを作成し、象徴的な知識でニューラルネットワークを支援することに注力している。
文学における重要なトレンドは、論理記号をニューラルネットワークやファジィ意味論を持つ演算子と接地することで、損失関数の公理と事実を統合することである。
論理テンソルネットワーク(英: Logic Tensor Networks、LTN)は、その単純さ、効率性、汎用性で知られている、このカテゴリの主要な代表者の一人である。
しかし、これまですべてのファジィ作用素が微分可能条件で等しく作用するわけではないことが示されている。
研究者は演算子のいくつかの構成を提案し、有効性、数値安定性、および異なる公式への一般化をトレードオフした。
本稿では,対数空間の終端を基底とするファジィ演算子の構成について述べる。
我々のゴールは、以前の提案よりも効果的で、どんな公式も扱え、数値的に安定な構成を開発することです。
そこで本研究では,対数空間に適したセマンティクスを提案し,勾配差による最適化に不可欠な新しい単純化と改善を提案する。
LTNを実験のフレームワークとして使用していますが、作業の結論はどんなNeSyフレームワークにも当てはまります。
形式的かつ実証的な結果から,提案する構成が最先端を上回っており,それぞれの修正がこれらの結果を達成する上で不可欠であることが示された。
関連論文リスト
- Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - PROTOtypical Logic Tensor Networks (PROTO-LTN) for Zero Shot Learning [2.236663830879273]
論理ネットワーク(英: Logic Networks, LTN)は、ディープニューラルネットワークに根ざした微分可能な一階述語論理に基づくニューロシンボリックシステムである。
ここでは、ほとんどの意味的画像解釈タスクをエンコードする基本となるsubsumptionまたはtextttisOfClass述語に焦点を当てる。
本稿では,オブジェクト埋め込みと対応するクラスプロトタイプ間の距離の関数を真理レベルとする,共通のtextttisOfClass述語を提案する。
論文 参考訳(メタデータ) (2022-06-26T18:34:07Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - iNALU: Improved Neural Arithmetic Logic Unit [2.331160520377439]
最近提案されたNeural Arithmetic Logic Unit (NALU)は、ネットワークのユニットによって数学的関係を明確に表現し、和、減算、乗算などの操作を学ぶことができる新しいニューラルネットワークである。
本稿では,本モデルが安定性の問題を解き,算術精度と収束性により元のNALUモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T10:37:22Z) - Analyzing Differentiable Fuzzy Logic Operators [3.4806267677524896]
ファジィ論理文からの論理演算子の大規模な集合が、微分可能な学習環境でどのように振る舞うかを考察する。
半教師付き学習において微分可能なファジィ論理を用いることが可能であることを示し、実際に異なる演算子がどのように振る舞うかを比較する。
論文 参考訳(メタデータ) (2020-02-14T16:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。