論文の概要: Compression versus Accuracy: A Hierarchy of Lifted Models
- arxiv url: http://arxiv.org/abs/2505.22288v1
- Date: Wed, 28 May 2025 12:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.592573
- Title: Compression versus Accuracy: A Hierarchy of Lifted Models
- Title(参考訳): 圧縮対精度:リフテッドモデルの階層
- Authors: Jan Speller, Malte Luttermann, Marcel Gehrke, Tanya Braun,
- Abstract要約: 本稿では,モデルの階層性を保証するために,$varepsilon$値の階層構造を示す。
ACPを実行するために、特定の$varepsilon$値を選択するとき、圧縮と精度を明示的に重み付けすることができる。
- 参考スコア(独自算出の注目度): 2.841859046512736
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Probabilistic graphical models that encode indistinguishable objects and relations among them use first-order logic constructs to compress a propositional factorised model for more efficient (lifted) inference. To obtain a lifted representation, the state-of-the-art algorithm Advanced Colour Passing (ACP) groups factors that represent matching distributions. In an approximate version using $\varepsilon$ as a hyperparameter, factors are grouped that differ by a factor of at most $(1\pm \varepsilon)$. However, finding a suitable $\varepsilon$ is not obvious and may need a lot of exploration, possibly requiring many ACP runs with different $\varepsilon$ values. Additionally, varying $\varepsilon$ can yield wildly different models, leading to decreased interpretability. Therefore, this paper presents a hierarchical approach to lifted model construction that is hyperparameter-free. It efficiently computes a hierarchy of $\varepsilon$ values that ensures a hierarchy of models, meaning that once factors are grouped together given some $\varepsilon$, these factors will be grouped together for larger $\varepsilon$ as well. The hierarchy of $\varepsilon$ values also leads to a hierarchy of error bounds. This allows for explicitly weighing compression versus accuracy when choosing specific $\varepsilon$ values to run ACP with and enables interpretability between the different models.
- Abstract(参考訳): 識別不能なオブジェクトとそれらの関係を符号化する確率的グラフィカルモデルは、より効率的な(リフトされた)推論のために命題分解されたモデルを圧縮するために一階述語論理構造を用いる。
最先端のアルゴリズムであるAdvanced Colour Passing (ACP) 群は、一致する分布を表す。
ハイパーパラメータとして$\varepsilon$を使用する近似バージョンでは、少なくとも$(1\pm \varepsilon)$の因子によって異なる因子がグループ化される。
しかし、適切な$\varepsilon$を見つけることは明らかではなく、多くの探索を必要とするかもしれない。
さらに、$\varepsilon$の変動は、非常に異なるモデルを生み出し、解釈可能性の低下につながる。
そこで本稿では,超パラメータフリーな揚力モデル構築に対する階層的アプローチを提案する。
モデル階層を確実にする$\varepsilon$の階層を効率的に計算し、ある$\varepsilon$が与えられたとき、これらの因子はより大きな$\varepsilon$でもグループ化される。
$\varepsilon$値の階層もエラー境界の階層化につながる。
これにより、特定の$\varepsilon$値を選択してACPを実行する際に圧縮と精度を明示的に重み付けし、異なるモデル間で解釈可能である。
関連論文リスト
- Approximate Lifted Model Construction [4.879568809183783]
本稿では,$varepsilon$-Advanced Colour Passing(varepsilon$-ACP)アルゴリズムを提案する。
ACPは、たとえ関連オブジェクトが区別できないとしても、データから学習したポテンシャルが必然的に逸脱する実用的な応用には適さない。
我々は, $varepsilon$-ACP による近似誤差が厳密な有界であることを証明し, この近似誤差が実際にゼロに近いことを示す。
論文 参考訳(メタデータ) (2025-04-29T14:01:10Z) - Almost Minimax Optimal Best Arm Identification in Piecewise Stationary Linear Bandits [55.957560311008926]
そこで本研究では,各文脈の平均値によって腕の質を計測するPSLBモデルを提案する。
PS$varepsilon$BAI$+$は、$varepsilon$-optimal armを、確率$ge 1-delta$と最小限のサンプルで識別することが保証される。
論文 参考訳(メタデータ) (2024-10-10T06:15:42Z) - A Theory of Interpretable Approximations [61.90216959710842]
我々は、ある基底クラス $mathcalH$ の概念の小さな集合によってターゲット概念 $c$ を近似するという考え方を研究する。
任意の$mathcalH$と$c$のペアに対して、これらのケースのちょうど1つが成り立つ: (i) $c$を任意の精度で$mathcalH$で近似することはできない。
解釈可能な近似の場合、近似の複雑さに関するわずかに非自明なa-priori保証でさえ、定数(分布自由かつ精度)の近似を意味することを示す。
論文 参考訳(メタデータ) (2024-06-15T06:43:45Z) - Approximation Rates and VC-Dimension Bounds for (P)ReLU MLP Mixture of Experts [17.022107735675046]
Mixture-of-Experts(MoEs)は、従来のディープラーニングモデルを越えてスケールアップすることができる。
MoMLPモデル全体のVC次元が$tildeO(LmaxnL,JW)$であるので、MoMLPが一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-02-05T19:11:57Z) - Efficient Sampling of Stochastic Differential Equations with Positive
Semi-Definite Models [91.22420505636006]
本稿では, ドリフト関数と拡散行列を考慮し, 微分方程式からの効率的なサンプリング問題を扱う。
1/varepsilonは$m2d log (1/varepsilon)$である。
以上の結果から,真の解がより滑らかになるにつれて,どのような凸性も必要とせず,次元の呪いを回避できることが示唆された。
論文 参考訳(メタデータ) (2023-03-30T02:50:49Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Beyond Grids: Multi-objective Bayesian Optimization With Adaptive Discretization [8.674678760891528]
GPサンプリング関数の滑らかさと$(cal X,d)$の構造を利用して高速に学習するアルゴリズムを提案する。
本質的に、Adaptive $boldsymbolepsilon$-PALは木に基づく適応的な離散化技術を採用している。
論文 参考訳(メタデータ) (2020-06-24T21:27:27Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。