論文の概要: Truncated Inference for Latent Variable Optimization Problems:
Application to Robust Estimation and Learning
- arxiv url: http://arxiv.org/abs/2003.05886v1
- Date: Thu, 12 Mar 2020 16:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:05:08.662071
- Title: Truncated Inference for Latent Variable Optimization Problems:
Application to Robust Estimation and Learning
- Title(参考訳): 潜在変数最適化問題に対する縮小推論:ロバスト推定と学習への応用
- Authors: Christopher Zach, Huu Le
- Abstract要約: 我々は、潜伏変数を維持する必要をなくすために、公式に正当化された2つの方法を提案する。
これらの手法は、大規模ロバストな推定やラベル付きデータからのエネルギーベースモデルの学習に応用できる。
- 参考スコア(独自算出の注目度): 32.08441889054456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization problems with an auxiliary latent variable structure in addition
to the main model parameters occur frequently in computer vision and machine
learning. The additional latent variables make the underlying optimization task
expensive, either in terms of memory (by maintaining the latent variables), or
in terms of runtime (repeated exact inference of latent variables). We aim to
remove the need to maintain the latent variables and propose two formally
justified methods, that dynamically adapt the required accuracy of latent
variable inference. These methods have applications in large scale robust
estimation and in learning energy-based models from labeled data.
- Abstract(参考訳): 主モデルパラメータに加えて補助的潜在変数構造による最適化問題は、コンピュータビジョンや機械学習で頻繁に発生する。
追加の潜在変数により、基礎となる最適化タスクは(潜在変数の維持によって)メモリの面でも、ランタイムの面でも高価になる(潜在変数の正確な推論を繰り返す)。
我々は、潜在変数の維持の必要性を取り除き、潜在変数推論の必要な精度を動的に適応する2つの形式的正当化手法を提案する。
これらの手法は大規模ロバストな推定やラベル付きデータからのエネルギーモデル学習に応用できる。
関連論文リスト
- Adaptive Robust Learning using Latent Bernoulli Variables [50.223140145910904]
破損したトレーニングセットから学習するための適応的なアプローチを提案する。
我々は,潜伏したベルヌーイ変数を持つ崩壊した非破壊標本を同定した。
結果の問題は変分推論によって解決される。
論文 参考訳(メタデータ) (2023-12-01T13:50:15Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Interpretable Latent Variables in Deep State Space Models [4.884336328409872]
我々は、時系列データを予測するために、リカレントニューラルネットワークと状態空間フレームワークを組み合わせたディープステートスペースモデル(DSSM)の新バージョンを導入する。
このモデルは、観測された系列を、時間を通して非線形に進化する潜在変数の関数として推定する。
論文 参考訳(メタデータ) (2022-03-03T23:10:58Z) - The Parametric Cost Function Approximation: A new approach for
multistage stochastic programming [4.847980206213335]
決定論的最適化モデルのパラメータ化バージョンは、プログラミングや動的プログラミングの複雑さを伴わずに不確実性を扱う効果的な方法であることを示す。
このアプローチは複雑な高次元状態変数を処理でき、シナリオツリーや値関数近似に関連する通常の近似を避けることができる。
論文 参考訳(メタデータ) (2022-01-01T23:25:09Z) - Neural Stochastic Dual Dynamic Programming [99.80617899593526]
我々は、問題インスタンスを断片的線形値関数にマッピングすることを学ぶトレーニング可能なニューラルモデルを導入する。
$nu$-SDDPは、ソリューションの品質を犠牲にすることなく、問題解決コストを大幅に削減できる。
論文 参考訳(メタデータ) (2021-12-01T22:55:23Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。