論文の概要: Using Autoencoders and AutoDiff to Reconstruct Missing Variables in a
Set of Time Series
- arxiv url: http://arxiv.org/abs/2308.10496v1
- Date: Mon, 21 Aug 2023 06:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 14:47:44.190131
- Title: Using Autoencoders and AutoDiff to Reconstruct Missing Variables in a
Set of Time Series
- Title(参考訳): 自動エンコーダとオートディフを使って時系列の欠落変数を再構成する
- Authors: Jan-Philipp Roche and Oliver Niggemann and Jens Friebe
- Abstract要約: 時系列の集合において、欠落した変数を再構成するための新しいアプローチが提示される。
オートエンコーダは通常、両側のすべての機能で訓練される。
検索された変数はオートエンコーダ入力の欠落変数として定義され、自動微分によって最適化される。
- 参考スコア(独自算出の注目度): 2.3265565167163906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing black box modeling approaches in machine learning suffer from a
fixed input and output feature combination. In this paper, a new approach to
reconstruct missing variables in a set of time series is presented. An
autoencoder is trained as usual with every feature on both sides and the neural
network parameters are fixed after this training. Then, the searched variables
are defined as missing variables at the autoencoder input and optimized via
automatic differentiation. This optimization is performed with respect to the
available features loss calculation. With this method, different input and
output feature combinations of the trained model can be realized by defining
the searched variables as missing variables and reconstructing them. The
combination can be changed without training the autoencoder again. The approach
is evaluated on the base of a strongly nonlinear electrical component. It is
working well for one of four variables missing and generally even for multiple
missing variables.
- Abstract(参考訳): 機械学習における既存のブラックボックスモデリングアプローチは、一定の入出力機能の組み合わせに苦しむ。
本稿では,一連の時系列における欠落変数を再構成する新しい手法を提案する。
オートエンコーダは通常、両側のすべての機能でトレーニングされ、このトレーニング後にニューラルネットワークパラメータが固定される。
次に、探索された変数はオートエンコーダ入力の欠落変数として定義され、自動微分によって最適化される。
この最適化は、利用可能な特徴損失計算に関して行われる。
この方法により、探索された変数を欠落変数として定義し、再構成することにより、訓練されたモデルの異なる入出力特徴組合せを実現することができる。
組み合わせはオートエンコーダを再びトレーニングすることなく変更することができる。
このアプローチは、強い非線形電気成分に基づいて評価される。
欠落している4つの変数のうちの1つ、そして一般的には複数の欠落変数に対してもうまく機能している。
関連論文リスト
- Are We Using Autoencoders in a Wrong Way? [3.110260251019273]
オートエンコーダは次元減少、異常検出、特徴抽出に使用される。
潜在空間の形状を変更する不完全なオートエンコーダの標準トレーニングを再考した。
また,データセット全体からランダムサンプルを再構成する場合の潜伏空間の挙動についても検討した。
論文 参考訳(メタデータ) (2023-09-04T11:22:43Z) - Learning Instance-Specific Augmentations by Capturing Local Invariances [62.70897571389785]
InstaAugは、データから入力固有の拡張を自動的に学習する方法である。
InstaAugは、幅広い変換クラスに対して意味のある入力依存の強化を学ぶことを実証的に示す。
論文 参考訳(メタデータ) (2022-05-31T18:38:06Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Autoencoder based Randomized Learning of Feedforward Neural Networks for
Regression [0.0]
勾配に基づく学習は多くの欠点に悩まされ、トレーニングプロセスは効果がなく、時間がかかります。
正規化学習では勾配は使用せず、隠れノードパラメータをランダムに選択する。
近年,教師なしパラメータ学習にオートエンコーダを用いた手法が提案されている。
論文 参考訳(メタデータ) (2021-07-04T19:07:39Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Visual Neural Decomposition to Explain Multivariate Data Sets [13.117139248511783]
多次元データセットにおける変数間の関係を調べることは、データアナリストとエンジニアにとって共通の課題である。
本稿では,入力変数と対象変数との相関関係を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T15:53:37Z) - A New Modal Autoencoder for Functionally Independent Feature Extraction [6.690183908967779]
新しいモーダルオートエンコーダ (MAE) は、読み出し重み行列の列をオトゴゴナライズすることによって提案される。
結果は、MNIST変異とUSPS分類ベンチマークスイートで検証された。
新しいMAEは、オートエンコーダのための非常にシンプルなトレーニング原則を導入し、ディープニューラルネットワークの事前トレーニングを約束できる。
論文 参考訳(メタデータ) (2020-06-25T13:25:10Z) - Simple and Effective VAE Training with Calibrated Decoders [123.08908889310258]
変分オートエンコーダ(VAE)は、複雑な分布をモデル化するための効果的で簡単な方法である。
復号分布の不確かさを学習する校正復号器の影響について検討する。
本稿では,一般的なガウス復号器の簡易かつ斬新な修正を提案し,その予測分散を解析的に計算する。
論文 参考訳(メタデータ) (2020-06-23T17:57:47Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。