論文の概要: Lifted Relational Probabilistic Inference via Implicit Learning
- arxiv url: http://arxiv.org/abs/2602.14890v1
- Date: Mon, 16 Feb 2026 16:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.541021
- Title: Lifted Relational Probabilistic Inference via Implicit Learning
- Title(参考訳): 入出力学習によるリフテッドリレーショナル確率推論
- Authors: Luise Ge, Brendan Juba, Kris Nilsson, Alison Shao,
- Abstract要約: 本研究では,一階確率論理における問合せ問題について,学習と推論の共同作業を通じて検討する。
従来の持ち上げ推論は、完全なモデルへのアクセスを前提とし、クエリを評価するために対称性を利用する。
我々はこれらの2つの課題を、暗黙の学習から理性、一階の確率的推論手法を通じて解決する。
- 参考スコア(独自算出の注目度): 9.419317852220315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconciling the tension between inductive learning and deductive reasoning in first-order relational domains is a longstanding challenge in AI. We study the problem of answering queries in a first-order relational probabilistic logic through a joint effort of learning and reasoning, without ever constructing an explicit model. Traditional lifted inference assumes access to a complete model and exploits symmetry to evaluate probabilistic queries; however, learning such models from partial, noisy observations is intractable in general. We reconcile these two challenges through implicit learning to reason and first-order relational probabilistic inference techniques. More specifically, we merge incomplete first-order axioms with independently sampled, partially observed examples into a bounded-degree fragment of the sum-of-squares (SOS) hierarchy in polynomial time. Our algorithm performs two lifts simultaneously: (i) grounding-lift, where renaming-equivalent ground moments share one variable, collapsing the domain of individuals; and (ii) world-lift, where all pseudo-models (partial world assignments) are enforced in parallel, producing a global bound that holds across all worlds consistent with the learned constraints. These innovations yield the first polynomial-time framework that implicitly learns a first-order probabilistic logic and performs lifted inference over both individuals and worlds.
- Abstract(参考訳): 一階関係領域における帰納的学習と帰納的推論の緊張を緩和することは、AIにおける長年の課題である。
本研究では,一階関係確率論理における問合せ問題について,明示的なモデルを構築することなく,学習と推論の共同作業を通じて検討する。
伝統的な持ち上げ推論は、完全なモデルへのアクセスを前提とし、確率的クエリを評価するために対称性を利用するが、そのようなモデルを部分的、ノイズの多い観測から学習することは一般的には難解である。
我々はこれらの2つの課題を、暗黙の学習から理性学習、一階関係確率推論技術を通して解決する。
より具体的には、不完全一階公理と独立に標本化され、部分的に観察された例を多項式時間における2乗和(SOS)階層の有界な断片にマージする。
私たちのアルゴリズムは2つのリフトを同時に実行します。
一 自己の領域を崩壊させる一の変分を同値な地中モーメントが共有する地中揚力
(ii)世界リフトでは、すべての擬似モデル(部分的世界割当)が並列に実施され、学習された制約と整合した全世界にわたって保持される世界境界が生成される。
これらの革新は、一階確率論理を暗黙的に学習し、個人と世界の両方に対して持ち上げられた推論を実行する最初の多項式時間フレームワークをもたらす。
関連論文リスト
- On the Limits of Self-Improving in LLMs and Why AGI, ASI and the Singularity Are Not Near Without Symbolic Model Synthesis [0.01269104766024433]
我々は,大規模言語モデル(LLM)における自己学習と生成AIを離散時間力学系として定式化する。
1) 有限サンプリング効果が分布多様性の単調な損失(モード崩壊)を引き起こすエントロピー減衰と,(2) 外部グラウンドの損失がモデルの真理表現をランダムウォークとして漂流させる変数増幅の2つの基本的障害モードを導出する。
論文 参考訳(メタデータ) (2026-01-05T19:50:49Z) - Flow based approach for Dynamic Temporal Causal models with non-Gaussian or Heteroscedastic Noises [37.02662517645979]
因果発見のための統合フレームワークであるFANTOMを紹介する。
非定常過程と非ガウス的および異方性雑音を扱う。
同時にレジームの数と対応するインデックスを推測し、各レジームのディレクテッド・アサイクリックグラフを学習する。
論文 参考訳(メタデータ) (2025-06-20T15:12:43Z) - Polynomial-Time Relational Probabilistic Inference in Open Universes [14.312814866832804]
本稿では,使用する言語の表現力と推論による計算問題のトラクタビリティを両立させる一階確率推定手法を提案する。
具体的には、期待の2乗論理をリレーショナルセッティングに拡張する。
与えられた次数と大きさの証明によって証明可能な最も厳密な境界を導出し、固定度に対する2乗の総和の完全性を確立することができる。
論文 参考訳(メタデータ) (2025-05-07T04:14:03Z) - Towards Understanding Multi-Round Large Language Model Reasoning: Approximability, Learnability and Generalizability [18.54202114336492]
マルチラウンド自動回帰モデルの近似,学習可能性,一般化特性について検討する。
有限コンテキストウィンドウを持つ変換器はチューリング計算可能関数のステップに対する普遍近似器であることを示す。
我々はPAC学習をシーケンス生成に拡張し、シーケンス長がモデルのコンテキストウィンドウを超えた場合でも、マルチラウンド生成が学習可能であることを示す。
論文 参考訳(メタデータ) (2025-03-05T02:50:55Z) - The No Free Lunch Theorem, Kolmogorov Complexity, and the Role of Inductive Biases in Machine Learning [80.1018596899899]
ニューラルネットワークモデルは、Kolmogorov複雑性を使って形式化された、同じ好みを共有している、と我々は主張する。
実験の結果、事前訓練された言語モデルでも、低複雑さのシーケンスを生成するのが好まれることがわかった。
これらの観察は、ますます小さな機械学習モデルで異なるように見える問題を統一する深層学習の傾向を正当化する。
論文 参考訳(メタデータ) (2023-04-11T17:22:22Z) - Structure Learning and Parameter Estimation for Graphical Models via
Penalized Maximum Likelihood Methods [0.0]
論文では、静的なベイジアンネットワーク(BN)と、その名前が示すように時間成分を持つ連続時間ベイジアンネットワークという2つの異なるタイプのPGMについて考察する。
私たちは、PGMを学ぶための最初のステップである、真の構造を回復することに興味を持っています。
論文 参考訳(メタデータ) (2023-01-30T20:26:13Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Logic, Probability and Action: A Situation Calculus Perspective [12.47276164048813]
論理と確率の統一は、AIにおける長年の関心事である。
現状計算における論理・確率・行動の統合に関する最近の結果について考察する。
結果は認知ロボティクスの文脈で動機づけられる。
論文 参考訳(メタデータ) (2020-06-17T13:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。