論文の概要: Structured and Informed Probabilistic Modeling with the Thermodynamic Kolmogorov-Arnold Model
- arxiv url: http://arxiv.org/abs/2506.14167v1
- Date: Tue, 17 Jun 2025 04:07:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.321368
- Title: Structured and Informed Probabilistic Modeling with the Thermodynamic Kolmogorov-Arnold Model
- Title(参考訳): 熱力学的コルモゴロフ・アルノルドモデルを用いた構造的およびインフォームド確率モデル
- Authors: Prithvi Raj,
- Abstract要約: 我々は生成モデルにコルモゴロフ・アルノルド表現論を適用する。
我々は、解釈可能で、設計が容易で、効率的である生成モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We adapt the Kolmogorov-Arnold Representation Theorem to generative modeling by reinterpreting its inner functions as a Markov Kernel between probability spaces via inverse transform sampling. We present a generative model that is interpretable, easy to design, and efficient. Our approach couples a Kolmogorov-Arnold Network generator with independent energy-based priors, trained via Maximum Likelihood. Inverse sampling enables fast inference, while prior knowledge can be incorporated before training to better align priors with posteriors, thereby improving learning efficiency and sample quality. The learned prior is also recoverable and visualizable post-training, offering an empirical Bayes perspective. To address inflexibility and mitigate prior-posterior mismatch, we introduce scalable extensions based on mixture distributions and Langevin Monte Carlo methods, admitting a trade-off between flexibility and training efficiency. Our contributions connect classical representation theorems with modern probabilistic modeling, while balancing training stability, inference speed, and the quality and diversity of generations.
- Abstract(参考訳): 我々は、Kolmogorov-Arnold Representation Theoremを生成的モデリングに適用し、その内部関数を逆変換サンプリングにより確率空間間のマルコフカーネルとして再解釈する。
我々は、解釈可能で、設計が容易で、効率的である生成モデルを提案する。
我々のアプローチでは、Kolmogorov-Arnoldネットワークジェネレータを独立エネルギーベースで組み合わせ、Maximum Likelihoodを使って訓練する。
逆サンプリングは高速な推論を可能にし、事前知識をトレーニング前に組み込むことで、事前知識と後方知識の整合性が向上し、学習効率とサンプル品質が向上する。
学習された事前学習は、回復可能で視覚的なポストトレーニングも可能で、実証的なベイズ視点を提供する。
非フレキシビリティに対処し、事前のミスマッチを軽減するため、混合分布とランジェヴィン・モンテカルロ法に基づくスケーラブルな拡張を導入し、柔軟性と訓練効率のトレードオフを認める。
我々の貢献は、古典的表現定理と現代の確率論的モデリングを結びつけ、訓練安定性、推論速度、世代の品質と多様性のバランスをとる。
関連論文リスト
- Kolmogorov-Arnold Networks for Time Series: Bridging Predictive Power and Interpretability [6.4314326272535896]
Kolmogorov-Arnold Networks (KAN)は、最近MITチームが提案した画期的なモデルである。
Kanは時系列内の概念ドリフトを検知し、予測と過去の時間ステップの間の非線形関係を説明するように設計されている。
T-KANは、時系列内の概念ドリフトを検知し、予測と過去の時間ステップの間の非線形関係を説明するように設計されている。
一方,MT-KANは変数間の複雑な関係を効果的に発見・活用することで予測性能を向上させる。
論文 参考訳(メタデータ) (2024-06-04T17:14:31Z) - MGE: A Training-Free and Efficient Model Generation and Enhancement
Scheme [10.48591131837771]
本稿では,MGE(Merning-free and Efficient Model Generation and Enhancement Scheme)を提案する。
モデル生成プロセスにおいて、モデルパラメータの分布とモデルパフォーマンスの2つの側面を考慮する。
実験の結果、生成したモデルは通常の訓練によって得られたモデルに匹敵し、場合によっては優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T13:12:00Z) - STANLEY: Stochastic Gradient Anisotropic Langevin Dynamics for Learning
Energy-Based Models [41.031470884141775]
エネルギーベースモデル(EBM)のためのエンドツーエンド学習アルゴリズムを提案する。
本稿では、異方性段差と勾配インフォームド共分散行列に基づく新しい高次元サンプリング法を提案する。
提案手法,すなわちSTANLEYは,新しいMCMC法を用いてエネルギーベースモデルを学習するための最適化アルゴリズムである。
論文 参考訳(メタデータ) (2023-10-19T11:55:16Z) - Learning Energy-Based Prior Model with Diffusion-Amortized MCMC [89.95629196907082]
非収束短距離MCMCを用いた事前及び後方サンプリングによる潜時空間EMM学習の一般的な実践は、さらなる進歩を妨げている。
本稿では,MCMCサンプリングのための単純だが効果的な拡散型アモータイズ手法を導入し,それに基づく潜時空間EMMのための新しい学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-05T00:23:34Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - Adversarial Training Improves Joint Energy-Based Generative Modelling [1.0878040851638]
本稿では,ハイブリッドエネルギーモデルを用いた生成モデリングのための新しいフレームワークを提案する。
本手法では,ロバストな分類器の解釈可能な入力勾配と,サンプリングのためのランゲヴィンダイナミクスを組み合わせる。
論文 参考訳(メタデータ) (2022-07-18T21:30:03Z) - Latent Diffusion Energy-Based Model for Interpretable Text Modeling [104.85356157724372]
本稿では,拡散モデルと潜時空間ESMの共生を変動学習フレームワークで導入する。
我々は,学習した潜在空間の品質を向上させるために,情報ボトルネックと合わせて幾何学的クラスタリングに基づく正規化を開発する。
論文 参考訳(メタデータ) (2022-06-13T03:41:31Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - A Unified Contrastive Energy-based Model for Understanding the
Generative Ability of Adversarial Training [64.71254710803368]
Adversarial Training (AT) は、ディープニューラルネットワークの堅牢性を高める効果的なアプローチである。
我々は、Contrastive Energy-based Models(CEM)と呼ばれる統合確率的枠組みを開発することにより、この現象をデミステレーションする。
本稿では,逆学習法とサンプリング法を開発するための原則的手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:33:34Z) - Particle Dynamics for Learning EBMs [83.59335980576637]
エネルギーベースモデリングは教師なし学習への有望なアプローチであり、単一のモデルから多くの下流アプリケーションを生み出す。
コントラスト的アプローチ(contrastive approach)"でエネルギーベースモデルを学習する際の主な困難は、各イテレーションで現在のエネルギー関数からサンプルを生成することである。
本稿では,これらのサンプルを取得し,現行モデルからの粗大なMCMCサンプリングを回避するための代替手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T23:41:07Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Prediction-Centric Learning of Independent Cascade Dynamics from Partial
Observations [13.680949377743392]
本稿では,このモデルから生成された予測が正確であるような拡散モデルの学習の問題に対処する。
本稿では,スケーラブルな動的メッセージパッシング手法に基づく計算効率のよいアルゴリズムを提案する。
学習モデルからの抽出可能な推論は,元のモデルと比較して限界確率の予測精度がよいことを示す。
論文 参考訳(メタデータ) (2020-07-13T17:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。