論文の概要: Towards Invertible Semantic-Preserving Embeddings of Logical Formulae
- arxiv url: http://arxiv.org/abs/2305.03143v1
- Date: Wed, 3 May 2023 10:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:17:43.597061
- Title: Towards Invertible Semantic-Preserving Embeddings of Logical Formulae
- Title(参考訳): 論理公式の可逆意味保存埋め込みに向けて
- Authors: Gaia Saveri and Luca Bortolussi
- Abstract要約: 論理的要件とルールの学習と最適化は、人工知能において常に重要な問題である。
現在のメソッドは、カーネルメソッドを介して効果的なセマンティック保存の埋め込みを構築することができるが、それらが定義するマップは可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを応用した埋め込みの逆変換法について述べる。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logic is the main formal language to perform automated reasoning, and it is
further a human-interpretable language, at least for small formulae. Learning
and optimising logic requirements and rules has always been an important
problem in Artificial Intelligence. State of the art Machine Learning (ML)
approaches are mostly based on gradient descent optimisation in continuous
spaces, while learning logic is framed in the discrete syntactic space of
formulae. Using continuous optimisation to learn logic properties is a
challenging problem, requiring to embed formulae in a continuous space in a
meaningful way, i.e. preserving the semantics. Current methods are able to
construct effective semantic-preserving embeddings via kernel methods (for
linear temporal logic), but the map they define is not invertible. In this work
we address this problem, learning how to invert such an embedding leveraging
deep architectures based on the Graph Variational Autoencoder framework. We
propose a novel model specifically designed for this setting, justifying our
design choices through an extensive experimental evaluation. Reported results
in the context of propositional logic are promising, and several challenges
regarding learning invertible embeddings of formulae are highlighted and
addressed.
- Abstract(参考訳): 論理は自動推論を行う主要な形式言語であり、少なくとも小さな公式に対しては、人間解釈可能な言語である。
論理要件とルールの学習と最適化は、人工知能において常に重要な問題だった。
State of the Art Machine Learning (ML)アプローチは、主に連続空間における勾配降下最適化に基づいており、学習ロジックは式の離散構文空間でフレーム化されている。
論理特性を学習するために連続最適化を使うことは難しい問題であり、意味のある方法で連続空間に式を埋め込む必要がある。
現在の手法では、カーネルメソッド(線形時相論理)を介して効果的な意味保存埋め込みを構築することができるが、それらが定義する写像は可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを活用した組込みを逆転する方法を学ぶことで,この問題に対処した。
我々はこの設定のために特別に設計された新しいモデルを提案し,広範な実験評価を通じて設計選択を正当化する。
命題論理の文脈における報告された結果は有望であり、式の可逆埋め込みの学習に関するいくつかの課題が強調され、対処される。
関連論文リスト
- Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules [9.303501974597548]
我々は、論理規則の精度とリコールを導入し、それらの構成をルールユーティリティとして定義する。
我々は、リレーショナルデータから論理モデルを学ぶためのスケーラブルなフレームワークであるSPECTRUMを紹介する。
論文 参考訳(メタデータ) (2024-09-24T16:54:12Z) - Learning to Estimate System Specifications in Linear Temporal Logic using Transformers and Mamba [6.991281327290525]
仕様マイニングは システムトレースから 時間論理式を抽出する
トレースから線形時間論理式を生成するオートレモデルを導入する。
生成した公式の特異性の指標と,構文制約を強制するアルゴリズムを考案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:53Z) - stl2vec: Semantic and Interpretable Vector Representation of Temporal Logic [0.5956301166481089]
論理式を意味的に基底としたベクトル表現(機能埋め込み)を提案する。
我々はいくつかの望ましい性質を持つ公式の連続的な埋め込みを計算する。
本稿では,学習モデル検査とニューロシンボリック・フレームワークの2つの課題において,アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-23T10:04:56Z) - Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Unifying Framework for Optimizations in non-boolean Formalisms [0.6853165736531939]
多くの一般的な自動推論パラダイムは最適化文をサポートする言語を提供する。
本稿では,パラダイム間の統語的区別を排除する統一フレームワークを提案する。
本稿では,提案方式の形式的特性を,我々の枠組み内で捉えることができるパラダイムの形式的特性に変換するシステムについて検討する。
論文 参考訳(メタデータ) (2022-06-16T00:38:19Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Refining Labelled Systems for Modal and Constructive Logics with
Applications [0.0]
この論文は、モーダル論理や構成論理のセマンティクスを「経済的な」証明システムに変換する手段として機能する。
精製法は、ラベル付きおよびネストされたシーケント計算の2つの証明理論パラダイムを結合する。
導入された洗練されたラベル付き電卓は、デオン性STIT論理に対する最初の証明探索アルゴリズムを提供するために使用される。
論文 参考訳(メタデータ) (2021-07-30T08:27:15Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。