論文の概要: Weighted First-Order Model Counting in the Two-Variable Fragment With
Counting Quantifiers
- arxiv url: http://arxiv.org/abs/2007.05619v3
- Date: Fri, 14 Aug 2020 08:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:26:43.087422
- Title: Weighted First-Order Model Counting in the Two-Variable Fragment With
Counting Quantifiers
- Title(参考訳): 数量化器付き2変数フラグメントにおける重み付き一階モデルカウント
- Authors: Ondrej Kuzelka
- Abstract要約: Van den Broeckらによる[KR, 2014]の研究により、一階モデルの重み付けはドメイン要素の数で時間内に解けることが知られている。
本稿では、この結果を量子化器で数えられる2変数のフラグメントに拡張する。
- 参考スコア(独自算出の注目度): 10.635097939284751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is known due to the work of Van den Broeck et al [KR, 2014] that weighted
first-order model counting (WFOMC) in the two-variable fragment of first-order
logic can be solved in time polynomial in the number of domain elements. In
this paper we extend this result to the two-variable fragment with counting
quantifiers.
- Abstract(参考訳): これはVan den Broeckら(KR, 2014)の業績から知られており、一階論理の2変数の断片における一階モデルカウント(WFOMC)の重み付けは、ドメイン要素の数で時間多項式で解くことができる。
本稿では,この結果を数量化器を用いて2変数のフラグメントに拡張する。
関連論文リスト
- Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Lifted Algorithms for Symmetric Weighted First-Order Model Sampling [7.007419073974192]
数量化器を用いた一階述語論理の2変数フラグメントのサンプリングにおけるドメインリフト性を証明する。
そして、この結果は、基数制約の存在下においても引き続き持続することを示す。
我々のアルゴリズムは、最先端のWMSサンプリングよりもかなりのマージンで優れています。
論文 参考訳(メタデータ) (2023-08-17T07:40:47Z) - Decidable Fragments of LTLf Modulo Theories (Extended Version) [66.25779635347122]
一般に、fMTは、任意の決定可能な一階述語理論(例えば、線形算術)に対して、テーブルーベースの半決定手順で半決定可能であることが示されている。
有限メモリと呼ぶ抽象的意味条件を満たす任意のfMT式に対して、新しい規則で拡張されたテーブルーもまた終了することが保証されていることを示す。
論文 参考訳(メタデータ) (2023-07-31T17:02:23Z) - From frustration-free parent Hamiltonians to off-diagonal long-range
order: Moore-Read and related states in second quantization [51.47980393607887]
ムーア・リート・ファフィアン状態の第二量子化公式を構築する。
このような第二量子化された性質に訴えることなく、フラストレーションのない親ハミルトニアンの存在を証明する。
論文 参考訳(メタデータ) (2023-05-16T08:43:46Z) - CounTR: Transformer-based Generalised Visual Counting [94.54725247039441]
我々は任意の意味圏からオブジェクト数を数える計算モデルを開発し、任意の数の「例」を用いて計算する。
FSC-147のような大規模カウントベンチマークの徹底的なアブレーション研究を行い、ゼロおよび少数ショット設定の両方で最先端の性能を示す。
論文 参考訳(メタデータ) (2022-08-29T17:02:45Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - Weighted Model Counting in FO2 with Cardinality Constraints and Counting
Quantifiers: A Closed Form Formula [4.18804572788063]
重み付き一階モデルカウント (WFOMC) は有限領域上の一階論理理論のモデルの重み付き和を計算する。
WFOMCの閉形式を定式化するためのツールとして,リフト解釈の概念を導入する。
次に、この閉形式を拡張して、濃度制約、存在量化器、および量化器(すなわち C2)をドメインリフト性を失うことなく数える。
論文 参考訳(メタデータ) (2021-10-12T13:28:50Z) - Weighted Model Counting in the two variable fragment with Cardinality
Constraints: A Closed Form Formula [7.766921168069532]
重み付き一階モデルカウント(WFOMC)は、与えられた有限領域上の一階理論のモデルの重み付き和を計算する。
WFOMCの推論を定式化するためのツールとして,リフト解釈の概念を導入する。
次に、この閉形式を拡張して、存在量化器と濃度制約をドメインリフト性を失うことなく組み込む。
論文 参考訳(メタデータ) (2020-09-25T13:50:18Z) - Learning Concepts Described by Weight Aggregation Logic [0.0]
我々は、重みを集約し、それらの集合を比較し、より複雑な公式を構築するための一階述語論理の拡張を導入する。
重み付き背景構造上のFOWA1で定義可能な概念は, 擬似線形時間前処理後の多言語時間において, 不可知的にPAC学習可能であることを示す。
論文 参考訳(メタデータ) (2020-09-22T14:32:42Z) - Lifted Inference in 2-Variable Markov Logic Networks with Function and
Cardinality Constraints Using Discrete Fourier Transform [10.635097939284751]
本稿では,2変数マルコフ論理ネットワーク(MLN)における濃度と関数の制約による推論がドメインリフト可能であることを示す。
論文 参考訳(メタデータ) (2020-06-04T11:07:54Z) - Multi-Step Inference for Reasoning Over Paragraphs [95.91527524872832]
テキスト上の複雑な推論には、自由形式の述語と論理的な連結体を理解し、連鎖する必要がある。
本稿では,ニューラルネットワークを連想させる構成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-06T21:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。