論文の概要: Analyzing Differentiable Fuzzy Logic Operators
- arxiv url: http://arxiv.org/abs/2002.06100v2
- Date: Tue, 24 Aug 2021 08:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:22:54.386679
- Title: Analyzing Differentiable Fuzzy Logic Operators
- Title(参考訳): 微分可能ファジィ論理演算子の解析
- Authors: Emile van Krieken, Erman Acar, Frank van Harmelen
- Abstract要約: ファジィ論理文からの論理演算子の大規模な集合が、微分可能な学習環境でどのように振る舞うかを考察する。
半教師付き学習において微分可能なファジィ論理を用いることが可能であることを示し、実際に異なる演算子がどのように振る舞うかを比較する。
- 参考スコア(独自算出の注目度): 3.4806267677524896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The AI community is increasingly putting its attention towards combining
symbolic and neural approaches, as it is often argued that the strengths and
weaknesses of these approaches are complementary. One recent trend in the
literature are weakly supervised learning techniques that employ operators from
fuzzy logics. In particular, these use prior background knowledge described in
such logics to help the training of a neural network from unlabeled and noisy
data. By interpreting logical symbols using neural networks, this background
knowledge can be added to regular loss functions, hence making reasoning a part
of learning. We study, both formally and empirically, how a large collection of
logical operators from the fuzzy logic literature behave in a differentiable
learning setting. We find that many of these operators, including some of the
most well-known, are highly unsuitable in this setting. A further finding
concerns the treatment of implication in these fuzzy logics, and shows a strong
imbalance between gradients driven by the antecedent and the consequent of the
implication. Furthermore, we introduce a new family of fuzzy implications
(called sigmoidal implications) to tackle this phenomenon. Finally, we
empirically show that it is possible to use Differentiable Fuzzy Logics for
semi-supervised learning, and compare how different operators behave in
practice. We find that, to achieve the largest performance improvement over a
supervised baseline, we have to resort to non-standard combinations of logical
operators which perform well in learning, but no longer satisfy the usual
logical laws.
- Abstract(参考訳): AIコミュニティは、これらのアプローチの強みと弱みが相補的であるとしばしば主張されるため、象徴的アプローチとニューラルアプローチの組み合わせに注意を向けている。
最近の文献のトレンドは、ファジィ論理の演算子を用いる弱い教師付き学習技術である。
特に、このような論理に記述された事前の背景知識を用いて、ラベル付きでノイズの多いデータからニューラルネットワークのトレーニングを支援する。
ニューラルネットワークを用いて論理記号を解釈することにより、この背景知識を通常の損失関数に追加することができる。
我々は,ファジィ論理文からの論理演算子の大規模な集合が,微分可能な学習環境でどのように振る舞うかを,形式的かつ実証的に研究する。
これらの演算子の多くは、最もよく知られたものを含めて、この設定には非常に適していないことが分かりました。
さらなる発見は、これらのファジィ論理における含意の扱いを懸念し、前者によって駆動される勾配とそれに伴う含意の強い不均衡を示す。
さらに,この現象に取り組むために,新たなファジィ・インジェクション(sgmoidal implications)のファミリーを導入する。
最後に,半教師付き学習に微分可能なファジィ論理を用いることが可能であることを実証的に示し,運用者が実際にどのように振る舞うかを比較する。
教師付きベースラインよりも最大の性能向上を達成するためには、学習において良好に機能するが、通常の論理法則を満たさない論理演算子の非標準的な組み合わせに頼る必要がある。
関連論文リスト
- LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Logic-induced Diagnostic Reasoning for Semi-supervised Semantic
Segmentation [85.12429517510311]
LogicDiagは、セマンティックセグメンテーションのためのニューラルネットワークによる半教師付き学習フレームワークである。
私たちの重要な洞察は、記号的知識によって識別される擬似ラベル内の衝突は、強いが一般的に無視される学習信号として機能する、ということです。
本稿では,論理規則の集合として意味論的概念の構造的抽象化を定式化するデータ・ハングリーセグメンテーションシナリオにおけるLogicDiagの実践的応用について紹介する。
論文 参考訳(メタデータ) (2023-08-24T06:50:07Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - Reduced Implication-bias Logic Loss for Neuro-Symbolic Learning [11.343715006460577]
異なる演算子は、バックプロパゲーション中に有意なバイアスをもたらし、ニューロ・シンボリック学習の性能を低下させる可能性がある。
本稿では,バイアス付き損失関数をtextitReduced Implication-bias Logic Loss に変換する方法を提案する。
経験的研究により、RILLはバイアスド論理損失関数よりも大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-08-14T11:57:46Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Evaluating Relaxations of Logic for Neural Networks: A Comprehensive
Study [17.998891912502092]
本稿では,ラベル付き例と問題に関する知識を表す論理的表現をいかに緩和するかという課題について考察する。
本稿では, 様々なシナリオにおいて, 緩和が果たす効果を評価できる理論的, 経験的基準を提案する。
論文 参考訳(メタデータ) (2021-07-28T21:16:58Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Analyzing Differentiable Fuzzy Implications [3.4806267677524896]
本研究では,ファジィ論理文からの含意が,異なる場面でどのように振る舞うかを考察する。
様々なファジィな含意が、最もよく知られているものも含めて、異なる学習環境での使用に非常に適していないことが判明した。
我々は,この現象に対処するために,新しいファジィ含意(sigmoidal含意(sigmoidal含意))を導入した。
論文 参考訳(メタデータ) (2020-06-04T15:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。