論文の概要: On Projectivity in Markov Logic Networks
- arxiv url: http://arxiv.org/abs/2204.04009v1
- Date: Fri, 8 Apr 2022 11:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 13:13:34.660710
- Title: On Projectivity in Markov Logic Networks
- Title(参考訳): マルコフ論理ネットワークにおける射影性について
- Authors: Sagar Malhotra and Luciano Serafini
- Abstract要約: 論理論理ネットワーク(MLN)は、異なるドメインサイズ上の構造上の確率分布を定義する。
射影モデルは、サブサンプルドメインからの効率的で一貫したパラメータ学習を可能にする。
- 参考スコア(独自算出の注目度): 7.766921168069532
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Markov Logic Networks (MLNs) define a probability distribution on relational
structures over varying domain sizes. Many works have noticed that MLNs, like
many other relational models, do not admit consistent marginal inference over
varying domain sizes. Furthermore, MLNs learnt on a certain domain do not
generalize to new domains of varied sizes. In recent works, connections have
emerged between domain size dependence, lifted inference and learning from
sub-sampled domains. The central idea to these works is the notion of
projectivity. The probability distributions ascribed by projective models
render the marginal probabilities of sub-structures independent of the domain
cardinality. Hence, projective models admit efficient marginal inference,
removing any dependence on the domain size. Furthermore, projective models
potentially allow efficient and consistent parameter learning from sub-sampled
domains. In this paper, we characterize the necessary and sufficient conditions
for a two-variable MLN to be projective. We then isolate a special model in
this class of MLNs, namely Relational Block Model (RBM). We show that, in terms
of data likelihood maximization, RBM is the best possible projective MLN in the
two-variable fragment. Finally, we show that RBMs also admit consistent
parameter learning over sub-sampled domains.
- Abstract(参考訳): Markov Logic Networks (MLN) は、様々なドメインサイズ上の関係構造の確率分布を定義する。
多くの研究は、MLNが他の多くのリレーショナルモデルと同様に、異なるドメインサイズに対して一貫した限界推論を認めていないことに気付いた。
さらに、特定のドメインで学習したmlnsは、異なるサイズの新しいドメインに一般化しない。
最近の研究では、ドメインサイズ依存、リフトド推論、サブサンプルドメインからの学習の間にコネクションが出現している。
これらの作品の中心的な考え方は射影性の概念である。
射影モデルによって説明される確率分布は、領域の濃度に依存しない部分構造の限界確率を与える。
したがって、射影モデルは効率的な限界推定を認め、ドメインサイズに依存しない。
さらに、射影モデルは、サブサンプルドメインから効率的かつ一貫したパラメータ学習を可能にする。
本稿では,2変数MLNを投影するために必要な,必要かつ十分な条件を特徴付ける。
次に、このクラスのMLN、すなわちリレーショナルブロックモデル(RBM)で特別なモデルを分離する。
その結果, RBMは2変量フラグメントにおける最良の射影MLNであることがわかった。
最後に、RBMはサブサンプル領域上で一貫したパラメータ学習も認めていることを示す。
関連論文リスト
- Understanding Domain-Size Generalization in Markov Logic Networks [1.8434042562191815]
マルコフ論理ネットワーク(MLN)の一般化挙動を,大きさの異なる関係構造にまたがって検討する。
我々は、この矛盾を定量化し、MLNパラメータの分散の観点から境界付ける。
我々は、正規化やドメインサイズ認識MLNなどのMLNパラメータの分散を減少させることで知られている解が、MLNの内部整合性を高めることを観察する。
論文 参考訳(メタデータ) (2024-03-23T21:16:56Z) - Virtual Classification: Modulating Domain-Specific Knowledge for
Multidomain Crowd Counting [67.38137379297717]
マルチドメインのクラウドカウントは、複数の多様なデータセットの一般的なモデルを学ぶことを目的としている。
ディープネットワークは、ドメインバイアスとして知られるすべてのドメインではなく、支配的なドメインの分布をモデル化することを好む。
マルチドメイン群カウントにおけるドメインバイアス問題を処理するために,MDKNet(Modulating Domain-specific Knowledge Network)を提案する。
論文 参考訳(メタデータ) (2024-02-06T06:49:04Z) - Constrained Maximum Cross-Domain Likelihood for Domain Generalization [14.91361835243516]
ドメインの一般化は、複数のソースドメイン上で一般化可能なモデルを学ぶことを目的としている。
本稿では,異なる領域の後方分布間のKL偏差を最小限に抑える新しい領域一般化法を提案する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットの実験は、我々のメソッドの優れたパフォーマンスを強調している。
論文 参考訳(メタデータ) (2022-10-09T03:41:02Z) - Super-model ecosystem: A domain-adaptation perspective [101.76769818069072]
本稿では,ドメイン適応による新たなスーパーモデルパラダイムの理論的基礎を確立することを試みる。
スーパーモデルパラダイムは、計算とデータコストと二酸化炭素排出量を減らすのに役立つ。
論文 参考訳(メタデータ) (2022-08-30T09:09:43Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Projectivity revisited [0.0]
我々は、領域サイズでインデックス付けされた分布の族から、データベースから拡張データを取得する関手まで、射影性の概念を拡張した。
これにより、プロジェクティビティは、構造化された入力を受ける広範囲のアプリケーションで利用できるようになる。
論文 参考訳(メタデータ) (2022-07-01T18:54:36Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z) - A Complete Characterization of Projectivity for Statistical Relational
Models [20.833623839057097]
本稿では,射影関係モデルのクラスを正確に対応付ける,有向潜在変数モデルのクラスを導入する。
また、与えられた大きさ-$k$構造上の分布が、より大きい大きさ-$n$構造における大きさ-$k$部分構造の統計周波数分布であるときの特性も得られる。
論文 参考訳(メタデータ) (2020-04-23T05:58:27Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。