論文の概要: SCL(FOL) Can Simulate Non-Redundant Superposition Clause Learning
- arxiv url: http://arxiv.org/abs/2305.12926v1
- Date: Mon, 22 May 2023 11:12:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:30:53.414611
- Title: SCL(FOL) Can Simulate Non-Redundant Superposition Clause Learning
- Title(参考訳): scl(fol)は非冗長重ね合わせ節学習をシミュレートできる
- Authors: Martin Bromberger and Chaahat Jain and Christoph Weidenbach
- Abstract要約: SCL(FOL)は等式のない一階述語論理の重ね合わせにより非冗長節の導出をシミュレートできることを示す。
重畳に基づく推論は、固定縮小順序付けに対して行われる。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that SCL(FOL) can simulate the derivation of non-redundant clauses by
superposition for first-order logic without equality. Superposition-based
reasoning is performed with respect to a fixed reduction ordering. The
completeness proof of superposition relies on the grounding of the clause set.
It builds a ground partial model according to the fixed ordering, where minimal
false ground instances of clauses then trigger non-redundant superposition
inferences. We define a respective strategy for the SCL calculus such that
clauses learned by SCL and superposition inferences coincide. From this
perspective the SCL calculus can be viewed as a generalization of the
superposition calculus.
- Abstract(参考訳): SCL(FOL)は等式のない一階述語論理の重ね合わせにより非冗長節の導出をシミュレートできることを示す。
固定還元順序に関して重ね合わせに基づく推論を行う。
重ね合わせの完全性証明は、節集合の接地に依存する。
固定順序に従って基底部分モデルを構築し、節の最小の偽の基底インスタンスが冗長でない重ね合わせ推論をトリガーする。
我々は,SCL計算のそれぞれの戦略を定義し,SCLが学習した節と重畳推論が一致するようにした。
この観点から、SCL計算は重ね合わせ計算の一般化と見なすことができる。
関連論文リスト
- Decidable Fragments of LTLf Modulo Theories (Extended Version) [66.25779635347122]
一般に、fMTは、任意の決定可能な一階述語理論(例えば、線形算術)に対して、テーブルーベースの半決定手順で半決定可能であることが示されている。
有限メモリと呼ぶ抽象的意味条件を満たす任意のfMT式に対して、新しい規則で拡張されたテーブルーもまた終了することが保証されていることを示す。
論文 参考訳(メタデータ) (2023-07-31T17:02:23Z) - Resolution for Constrained Pseudo-Propositional Logic [0.0]
この研究は、制約付き擬似命題論理の解法証明システムを得るために、命題分解を一般化する方法を示す。
有限個の節に制限された CNF の公式の構成とは異なり、拡張された CPPL は対応する集合を有限とする必要はない。
論文 参考訳(メタデータ) (2023-06-11T09:17:24Z) - What and How does In-Context Learning Learn? Bayesian Model Averaging,
Parameterization, and Generalization [111.55277952086155]
In-Context Learning (ICL) をいくつかのオープンな質問に答えることによって研究する。
ニューラルネットワークパラメータを更新せずに、ICLはベイズモデル平均化アルゴリズムを暗黙的に実装している。
事前学習されたモデルの誤差は近似誤差と一般化誤差の和で有界であることを示す。
論文 参考訳(メタデータ) (2023-05-30T21:23:47Z) - Enhancing Adversarial Contrastive Learning via Adversarial Invariant
Regularization [59.77647907277523]
Adversarial contrastive learning (ACL)は、標準コントラスト学習(SCL)を強化する技術である。
本稿では,スタイル要因からの独立性を確保するために,逆不変正規化(AIR)を提案する。
論文 参考訳(メタデータ) (2023-04-30T03:12:21Z) - Supervised Contrastive Learning with Hard Negative Samples [16.42457033976047]
対照的学習(CL)では、正のサンプルを互いに近づき、有用な表現関数を学習する。
クラス情報がない場合、負のサンプルはアンカーとは無関係にランダムに選択される。
Supervised CL (SCL) は、アンカーとラベルが異なるサンプルに対して負のサンプリング分布を条件にすることで、このクラス衝突を避ける。
論文 参考訳(メタデータ) (2022-08-31T19:20:04Z) - Too much information: CDCL solvers need to forget and perform restarts [0.0]
競合駆動型節学習(CDCL)は命題論理の満足度問題を解くための極めて成功したパラダイムである。
この論文は、節学習がランタイムを改善するだけでなく、それを劇的に劣化させることがあることを非常に驚くべきことに示します。
論文 参考訳(メタデータ) (2022-02-01T10:16:04Z) - Superposition with Lambdas [59.87497175616048]
匿名関数を含むがブール関数を除いた拡張多型高階論理のクラスフラグメントに対する重ね合わせ計算を設計する。
推論ルールは$betaeta$-equivalence class of $lambda$-termsで動作し、難解な完全性を達成するために高階統一に依存する。
論文 参考訳(メタデータ) (2021-01-31T13:53:17Z) - On the Effect of Learned Clauses on Stochastic Local Search [0.0]
SATソルバでは、競合駆動型節学習(CDCL)と局所探索(SLS)が使用されている。
多数の正しいリテラルを持つ節がSLSのランタイムに有益であることを実験的に実証した。
我々は、前処理のステップとして高品質な節を追加する最も有益な戦略を導出する。
論文 参考訳(メタデータ) (2020-05-07T13:33:16Z) - Superposition for Lambda-Free Higher-Order Logic [62.997667081978825]
本稿では,意図的および拡張的クラス数$lambda$-free高階論理に対して,難解な完全重ね合わせ計算を導入する。
計算は完全単調でなくてもよい項順でパラメタ化され、$lambda$フリーの高次語彙パスとKnuth-Bendixの順序を使うことができる。
論文 参考訳(メタデータ) (2020-05-05T12:10:21Z) - Learning with Multiple Complementary Labels [94.8064553345801]
補ラベル(CL)は、単に例の不正なクラスを示すが、CLで学習すると、多クラス分類器が生成される。
そこで本研究では,MCLを各例に示すための新しい問題設定と,MCLを学習するための2つの方法を提案する。
論文 参考訳(メタデータ) (2019-12-30T13:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。