論文の概要: Domain size asymptotics for Markov logic networks
- arxiv url: http://arxiv.org/abs/2509.04192v1
- Date: Thu, 04 Sep 2025 13:15:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.168361
- Title: Domain size asymptotics for Markov logic networks
- Title(参考訳): マルコフ論理ネットワークのための領域サイズ漸近
- Authors: Vera Koponen,
- Abstract要約: マルコフ論理ネットワーク(MLN)は、構造の集合上の確率分布を決定する。
領域サイズが無限大になる傾向があるような分布の性質について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A Markov logic network (MLN) determines a probability distribution on the set of structures, or ``possible worlds'', with an arbitrary finite domain. We study the properties of such distributions as the domain size tends to infinity. Three types of concrete examples of MLNs will be considered, and the properties of random structures with domain sizes tending to infinity will be studied: (1) Arbitrary quantifier-free MLNs over a language with only one relation symbol which has arity 1. In this case we give a pretty complete characterization of the possible limit behaviours of random structures. (2) An MLN that favours graphs with fewer triangles (or more generally, fewer k-cliques). As a corollary of the analysis a ``$\delta$-approximate 0-1 law'' for first-order logic is obtained. (3) An MLN that favours graphs with fewer vertices with degree higher than a fixed (but arbitrary) number. The analysis shows that depending on which ``soft constraints'' an MLN uses the limit behaviour of random structures can be quite different, and the weights of the soft constraints may, or may not, have influence on the limit behaviour. It will also be demonstrated, using (1), that quantifier-free MLNs and lifted Bayesian networks (in a broad sense) are asymptotically incomparable, roughly meaning that there is a sequence of distributions on possible worlds with increasing domain sizes that can be defined by one of the formalisms but not even approximated by the other. In a rather general context it is also shown that on large domains the distribution determined by an MLN concentrates almost all its probability mass on a totally different part of the space of possible worlds than the uniform distribution does.
- Abstract(参考訳): マルコフ論理ネットワーク(MLN)は、任意の有限領域を持つ構造の集合の確率分布を決定づける。
領域サイズが無限大になる傾向があるような分布の性質について検討する。
MLNの具体的な例は3種類検討され、領域サイズが無限大になるようなランダムな構造の性質が研究される: 1) アーティ1を持つ1つの関係記号を持つ言語上の任意量化子なしMLN。
この場合、ランダム構造の可能な極限挙動について、かなり完全な特徴づけを与える。
2) 三角形がより少ないグラフを好むMLN(あるいはより一般的にはk-斜めがより少ない)。
分析の結果として、一階述語論理に対する ``$\delta$-approximate 0-1 law''' が得られる。
(3) 固定数(ただし任意の)数より次数の高い頂点の少ないグラフを好むMLN。
この分析は、MLNがどの「ソフト制約」を使用するかによって、ランダム構造の極限挙動は、かなり異なる可能性があることを示し、ソフト制約の重みは、制限挙動に影響を及ぼすかもしれないか、あるいは影響しないかもしれないことを示している。
また、(1) を用いて、量化子なしMLN と(広い意味では)持ち上げベイズネットワークは漸近的に非可換であることが示され、大まかに言えば、ある形式主義によって定義できるが、他方によっても近似されない領域サイズが増加するような、可能世界上の分布列が存在することを意味する。
比較的一般的な文脈では、大域において、MLNによって決定される分布は、その確率質量のほとんど全てを、一様分布と全く異なる空間の空間に集中させることも示される。
関連論文リスト
- Unitary Designs from Random Symmetric Quantum Circuits [0.8192907805418583]
対称反射ゲートのみを含むランダム量子回路によって生成されるユニタリの分布について検討する。
このような分布の正確な設計特性を決定する方程式を得る。
論文 参考訳(メタデータ) (2024-08-26T17:52:46Z) - Understanding Domain-Size Generalization in Markov Logic Networks [1.8434042562191815]
マルコフ論理ネットワーク(MLN)の一般化挙動を,大きさの異なる関係構造にまたがって検討する。
我々は、この矛盾を定量化し、MLNパラメータの分散の観点から境界付ける。
我々は、正規化やドメインサイズ認識MLNなどのMLNパラメータの分散を減少させることで知られている解が、MLNの内部整合性を高めることを観察する。
論文 参考訳(メタデータ) (2024-03-23T21:16:56Z) - Recurrent Neural Language Models as Probabilistic Finite-state Automata [66.23172872811594]
RNN LMが表現できる確率分布のクラスについて検討する。
単純なRNNは確率的有限状態オートマトンの部分クラスと同値であることを示す。
これらの結果は、RNN LMが表現できる分布のクラスを特徴付けるための第一歩を示す。
論文 参考訳(メタデータ) (2023-10-08T13:36:05Z) - On Projectivity in Markov Logic Networks [7.766921168069532]
論理論理ネットワーク(MLN)は、異なるドメインサイズ上の構造上の確率分布を定義する。
射影モデルは、サブサンプルドメインからの効率的で一貫したパラメータ学習を可能にする。
論文 参考訳(メタデータ) (2022-04-08T11:37:53Z) - Metrizing Weak Convergence with Maximum Mean Discrepancies [88.54422104669078]
本稿では、幅広い種類のカーネルに対する確率測度の弱収束を測る最大平均誤差(MMD)を特徴付ける。
我々は、局所コンパクトで非コンパクトなハウスドルフ空間において、有界連続ボレル可測核 k の MMD が確率測度の弱収束を測ることを証明する。
論文 参考訳(メタデータ) (2020-06-16T15:49:33Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Generalized Sliced Distances for Probability Distributions [47.543990188697734]
我々は、一般化スライス確率測定(GSPM)と呼ばれる、幅広い確率測定値の族を紹介する。
GSPMは一般化されたラドン変換に根付いており、ユニークな幾何学的解釈を持つ。
GSPMに基づく勾配流を生成モデル応用に適用し、軽度な仮定の下では、勾配流が大域的最適に収束することを示す。
論文 参考訳(メタデータ) (2020-02-28T04:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。