論文の概要: Slack More, Predict Better: Proximal Relaxation for Probabilistic Latent Variable Model-based Soft Sensors
- arxiv url: http://arxiv.org/abs/2603.11473v1
- Date: Thu, 12 Mar 2026 02:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.830648
- Title: Slack More, Predict Better: Proximal Relaxation for Probabilistic Latent Variable Model-based Soft Sensors
- Title(参考訳): Slackの予測精度が向上 - 確率的潜在変数モデルベースのソフトセンサの近似緩和
- Authors: Zehua Zou, Yiran Ma, Yulong Zhang, Zhengnan Li, Zeyu Yang, Jinhao Xie, Xiaoyu Jiang, Zhichao Chen,
- Abstract要約: 確率潜在変数モデル(英: Probabilistic Latent Variable Models, NPLVMs)は、ソフトセンサーモデリングの基盤である。
NPLVMは、ニューラルネットワークが変分後部をパラメータ化するアモータイズされた変分推論を用いて訓練される。
KProxNPLVMは、目的自体を緩和し、NPLVMのパフォーマンスを改善するためにピボットする、新しいNPLVMである。
- 参考スコア(独自算出の注目度): 12.346122868771118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nonlinear Probabilistic Latent Variable Models (NPLVMs) are a cornerstone of soft sensor modeling due to their capacity for uncertainty delineation. However, conventional NPLVMs are trained using amortized variational inference, where neural networks parameterize the variational posterior. While facilitating model implementation, this parameterization converts the distributional optimization problem within an infinite-dimensional function space to parameter optimization within a finite-dimensional parameter space, which introduces an approximation error gap, thereby degrading soft sensor modeling accuracy. To alleviate this issue, we introduce KProxNPLVM, a novel NPLVM that pivots to relaxing the objective itself and improving the NPLVM's performance. Specifically, we first prove the approximation error induced by the conventional approach. Based on this, we design the Wasserstein distance as the proximal operator to relax the learning objective, yielding a new variational inference strategy derived from solving this relaxed optimization problem. Based on this foundation, we provide a rigorous derivation of KProxNPLVM's optimization implementation, prove the convergence of our algorithm can finally sidestep the approximation error, and propose the KProxNPLVM by summarizing the abovementioned content. Finally, extensive experiments on synthetic and real-world industrial datasets are conducted to demonstrate the efficacy of the proposed KProxNPLVM.
- Abstract(参考訳): 非線形確率潜在変数モデル (NPLVM) は、不確実性デライン化の能力のため、ソフトセンサーモデリングの基盤となる。
しかし、従来のNPLVMは、ニューラルネットワークが変分後部をパラメータ化するアモータイズされた変分推論を用いて訓練されている。
このパラメータ化はモデル実装を容易にする一方で、無限次元関数空間内の分布最適化問題を有限次元パラメータ空間内のパラメータ最適化に変換し、近似誤差ギャップを導入し、ソフトセンサのモデリング精度を劣化させる。
KProxNPLVMは、目的自体を緩和し、NPLVMのパフォーマンスを改善するためにピボットする新しいNPLVMです。
具体的には,従来の手法による近似誤差を最初に証明する。
これに基づいて、ワッサーシュタイン距離を近似演算子として設計し、学習目標を緩和し、この緩和された最適化問題を解いた新しい変分推論戦略を導出する。
この基礎に基づき、我々はKProxNPLVMの最適化実装の厳密な導出を行い、アルゴリズムの収束が最終的に近似誤差を回避できることを証明し、上記の内容を要約してKProxNPLVMを提案する。
最後に、提案したKProxNPLVMの有効性を示すために、合成および実世界の産業データセットに関する広範な実験を行った。
関連論文リスト
- On the Optimal Construction of Unbiased Gradient Estimators for Zeroth-Order Optimization [57.179679246370114]
既存の手法の潜在的な制限は、ステップサイズが提案されない限り、ほとんどの摂動推定器に固有のバイアスである。
本稿では, 良好な構成を維持しつつ, バイアスを排除した非バイアス勾配スケーリング推定器のファミリーを提案する。
論文 参考訳(メタデータ) (2025-10-22T18:25:43Z) - Beyond the Ideal: Analyzing the Inexact Muon Update [54.70108543057578]
本報告では,Muonコアにおける不正確な更新の初回解析について述べる。
この不正確さと最適なステップサイズと運動量との基本的な結合を明らかにする。
論文 参考訳(メタデータ) (2025-10-22T18:01:07Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - A surrogate model for topology optimisation of elastic structures via parametric autoencoders [0.0]
状態(および随伴)問題のパラメトリック解を学ぶ代わりに、提案手法は最適化パイプライン全体のサロゲートバージョンを考案する。
本手法は, 均質化法により最適化された高忠実度トポロジの代理モデルとして, 与えられた問題構成に対する準最適トポロジを予測する。
異なるアーキテクチャを提案し、得られたモデルの近似と一般化能力を数値的に評価する。
論文 参考訳(メタデータ) (2025-07-30T10:07:42Z) - Optimization-Free Diffusion Model -- A Perturbation Theory Approach [12.756355928431455]
拡散モデルは、生成モデリングの強力なフレームワークとして登場した。
最適化フリーとフォワードSDEフリーの両方の代替手法を提案する。
本研究では,高次元ボルツマン分布と実世界のデータセットに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2025-05-29T17:02:26Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。