論文の概要: Towards Invertible Semantic-Preserving Embeddings of Logical Formulae
- arxiv url: http://arxiv.org/abs/2305.03143v1
- Date: Wed, 3 May 2023 10:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:17:43.597061
- Title: Towards Invertible Semantic-Preserving Embeddings of Logical Formulae
- Title(参考訳): 論理公式の可逆意味保存埋め込みに向けて
- Authors: Gaia Saveri and Luca Bortolussi
- Abstract要約: 論理的要件とルールの学習と最適化は、人工知能において常に重要な問題である。
現在のメソッドは、カーネルメソッドを介して効果的なセマンティック保存の埋め込みを構築することができるが、それらが定義するマップは可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを応用した埋め込みの逆変換法について述べる。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logic is the main formal language to perform automated reasoning, and it is
further a human-interpretable language, at least for small formulae. Learning
and optimising logic requirements and rules has always been an important
problem in Artificial Intelligence. State of the art Machine Learning (ML)
approaches are mostly based on gradient descent optimisation in continuous
spaces, while learning logic is framed in the discrete syntactic space of
formulae. Using continuous optimisation to learn logic properties is a
challenging problem, requiring to embed formulae in a continuous space in a
meaningful way, i.e. preserving the semantics. Current methods are able to
construct effective semantic-preserving embeddings via kernel methods (for
linear temporal logic), but the map they define is not invertible. In this work
we address this problem, learning how to invert such an embedding leveraging
deep architectures based on the Graph Variational Autoencoder framework. We
propose a novel model specifically designed for this setting, justifying our
design choices through an extensive experimental evaluation. Reported results
in the context of propositional logic are promising, and several challenges
regarding learning invertible embeddings of formulae are highlighted and
addressed.
- Abstract(参考訳): 論理は自動推論を行う主要な形式言語であり、少なくとも小さな公式に対しては、人間解釈可能な言語である。
論理要件とルールの学習と最適化は、人工知能において常に重要な問題だった。
State of the Art Machine Learning (ML)アプローチは、主に連続空間における勾配降下最適化に基づいており、学習ロジックは式の離散構文空間でフレーム化されている。
論理特性を学習するために連続最適化を使うことは難しい問題であり、意味のある方法で連続空間に式を埋め込む必要がある。
現在の手法では、カーネルメソッド(線形時相論理)を介して効果的な意味保存埋め込みを構築することができるが、それらが定義する写像は可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを活用した組込みを逆転する方法を学ぶことで,この問題に対処した。
我々はこの設定のために特別に設計された新しいモデルを提案し,広範な実験評価を通じて設計選択を正当化する。
命題論理の文脈における報告された結果は有望であり、式の可逆埋め込みの学習に関するいくつかの課題が強調され、対処される。
関連論文リスト
- Neuro-Symbolic Contrastive Learning for Cross-domain Inference [13.649270716741535]
帰納的論理プログラミング(ILP)は、多種多様でスパースで限られたデータセットにまたがる論理的関係の推論に優れています。
本稿では,ニューロシンボリック・コントラスト学習という2つのアプローチの橋渡しについて述べる。
論文 参考訳(メタデータ) (2025-02-13T11:48:46Z) - A Semantic Parsing Algorithm to Solve Linear Ordering Problems [2.23890712706409]
線形順序付け問題を意味論的に解析するアルゴリズムを開発した。
提案手法は,複数の前提文と候補文を入力として扱う。
次に、制約論理プログラミングを用いて、注文に関する提案された文の真相を推測する。
論文 参考訳(メタデータ) (2025-02-12T13:58:42Z) - Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - Learning to Estimate System Specifications in Linear Temporal Logic using Transformers and Mamba [6.991281327290525]
仕様マイニングは システムトレースから 時間論理式を抽出する
トレースから線形時間論理式を生成するオートレモデルを導入する。
生成した公式の特異性の指標と,構文制約を強制するアルゴリズムを考案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:53Z) - stl2vec: Semantic and Interpretable Vector Representation of Temporal Logic [0.5956301166481089]
論理式を意味的に基底としたベクトル表現(機能埋め込み)を提案する。
我々はいくつかの望ましい性質を持つ公式の連続的な埋め込みを計算する。
本稿では,学習モデル検査とニューロシンボリック・フレームワークの2つの課題において,アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-23T10:04:56Z) - Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。