論文の概要: Learning with Logical Constraints but without Shortcut Satisfaction
- arxiv url: http://arxiv.org/abs/2403.00329v1
- Date: Fri, 1 Mar 2024 07:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 17:55:03.074524
- Title: Learning with Logical Constraints but without Shortcut Satisfaction
- Title(参考訳): 論理的制約による学習 : 短命な満足感を伴わない
- Authors: Zenan Li, Zehua Liu, Yuan Yao, Jingwei Xu, Taolue Chen, Xiaoxing Ma,
Jian L\"u
- Abstract要約: 論理的制約による学習のための新しいフレームワークを提案する。
具体的には、論理接続のための双対変数を導入することで、ショートカット満足度問題に対処する。
本稿では,符号化された論理制約を分布損失として表現する変分フレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.219364371311084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies in neuro-symbolic learning have explored the integration of
logical knowledge into deep learning via encoding logical constraints as an
additional loss function. However, existing approaches tend to vacuously
satisfy logical constraints through shortcuts, failing to fully exploit the
knowledge. In this paper, we present a new framework for learning with logical
constraints. Specifically, we address the shortcut satisfaction issue by
introducing dual variables for logical connectives, encoding how the constraint
is satisfied. We further propose a variational framework where the encoded
logical constraint is expressed as a distributional loss that is compatible
with the model's original training loss. The theoretical analysis shows that
the proposed approach bears salient properties, and the experimental
evaluations demonstrate its superior performance in both model generalizability
and constraint satisfaction.
- Abstract(参考訳): ニューロシンボリック学習における最近の研究は、論理的な制約を追加損失関数としてエンコードすることで、論理知識とディープラーニングの統合を探求している。
しかし、既存のアプローチは近道を通じて論理的制約をうまく満たし、知識を十分に活用できない傾向がある。
本稿では,論理制約による学習のための新しいフレームワークを提案する。
具体的には,論理接続に対する双対変数を導入し,制約の満足度を符号化することで,近道満足度問題に対処する。
さらに,エンコードされた論理制約を,モデルの本来のトレーニング損失と適合する分布的損失として表現する変分フレームワークを提案する。
理論解析の結果,提案手法は有意な特性を有し,実験によりモデル一般化性と制約満足度の両方において優れた性能を示すことがわかった。
関連論文リスト
- Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - Formally Verified Neurosymbolic Trajectory Learning via Tensor-based Linear Temporal Logic on Finite Traces [0.0]
有限トレース(LTLf)上の線形時間論理に対するテンソル意味論の新しい形式化を提案する。
我々は,この形式化を,制約に対する識別可能な損失関数の定義と検証によって,ニューロシンボリック学習プロセスに統合できることを実証した。
この損失を利用して、プロセスは事前に特定された論理的制約を満たすことを学ぶ。
論文 参考訳(メタデータ) (2025-01-23T14:43:12Z) - Neuro-symbolic Learning Yielding Logical Constraints [22.649543443988712]
ニューロシンボリックシステムのエンドツーエンドの学習は、まだ未解決の課題である。
本稿では,ネットワーク,シンボル接地,論理的制約合成を両立させるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-28T12:18:25Z) - Semantic Objective Functions: A distribution-aware method for adding logical constraints in deep learning [4.854297874710511]
制約付き学習と知識蒸留技術は有望な結果を示した。
本稿では,機械学習モデルに知識を付加した論理的制約を組み込むロスベース手法を提案する。
本手法は,論理的制約のある分類タスクを含む,様々な学習課題において評価する。
論文 参考訳(メタデータ) (2024-05-03T19:21:47Z) - Logic-induced Diagnostic Reasoning for Semi-supervised Semantic
Segmentation [85.12429517510311]
LogicDiagは、セマンティックセグメンテーションのためのニューラルネットワークによる半教師付き学習フレームワークである。
私たちの重要な洞察は、記号的知識によって識別される擬似ラベル内の衝突は、強いが一般的に無視される学習信号として機能する、ということです。
本稿では,論理規則の集合として意味論的概念の構造的抽象化を定式化するデータ・ハングリーセグメンテーションシナリオにおけるLogicDiagの実践的応用について紹介する。
論文 参考訳(メタデータ) (2023-08-24T06:50:07Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Leveraging Unlabeled Data for Entity-Relation Extraction through
Probabilistic Constraint Satisfaction [54.06292969184476]
シンボリックドメイン知識の存在下でのエンティティ関係抽出の問題を研究する。
本手法では,論理文の正確な意味を捉える意味的損失を用いる。
低データ体制に焦点をあてて、セマンティックな損失がベースラインをはるかに上回ることを示す。
論文 参考訳(メタデータ) (2021-03-20T00:16:29Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。