論文の概要: RDIS: Random Drop Imputation with Self-Training for Incomplete Time
Series Data
- arxiv url: http://arxiv.org/abs/2010.10075v1
- Date: Tue, 20 Oct 2020 07:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:20:33.296162
- Title: RDIS: Random Drop Imputation with Self-Training for Incomplete Time
Series Data
- Title(参考訳): RDIS:不完全時系列データの自己学習によるランダムドロップ計算
- Authors: Tae-Min Choi, Ji-Su Kang, Jong-Hwan Kim
- Abstract要約: 本稿では,不完全時系列データのための命令ネットワークのための新しいトレーニング手法RDISを提案する。
RDISでは、与えられた不完全データにランダムドロップを適用することで、余分な欠落値が存在する。
また、本来の欠落した価値を根拠のないまま活用するために、自己学習が導入される。
- 参考スコア(独自算出の注目度): 5.762908115928466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is common that time-series data with missing values are encountered in
many fields such as in finance, meteorology, and robotics. Imputation is an
intrinsic method to handle such missing values. In the previous research, most
of imputation networks were trained implicitly for the incomplete time series
data because missing values have no ground truth. This paper proposes Random
Drop Imputation with Self-training (RDIS), a novel training method for
imputation networks for the incomplete time-series data. In RDIS, there are
extra missing values by applying a random drop on the given incomplete data
such that the imputation network can explicitly learn by imputing the random
drop values. Also, self-training is introduced to exploit the original missing
values without ground truth. To verify the effectiveness of our RDIS on
imputation tasks, we graft RDIS to a bidirectional GRU and achieve
state-of-the-art results on two real-world datasets, an air quality dataset and
a gas sensor dataset with 7.9% and 5.8% margin, respectively.
- Abstract(参考訳): 金融、気象学、ロボット工学など多くの分野において、価値の欠落を伴う時系列データが遭遇することが一般的である。
Imputationは、そのような欠落した値を扱う本質的な方法である。
前回の研究では、未完成な時系列データに対して計算ネットワークの大部分が暗黙的に訓練されていた。
本稿では,不完全時系列データに対するインプテーションネットワークのための新しい学習法であるrdisを用いたランダムドロップインプテーションを提案する。
RDISでは、与えられた不完全データにランダムドロップを適用し、ランダムドロップ値を命令することで、命令ネットワークが明示的に学習できるように、余分な欠落値が存在する。
また、基礎的真理を伴わずに元の欠落値を利用するための自己学習も導入されている。
提案手法の有効性を検証するため,RDISを双方向GRUに移植し,実世界の2つのデータセット,空気品質データセットとガスセンサデータセットでそれぞれ7.9%と5.8%のマージンを達成した。
関連論文リスト
- Time Series Imputation with Multivariate Radial Basis Function Neural Network [1.6804613362826175]
放射基底関数ニューラルネットワーク(RBFNN)に基づく時系列計算モデルを提案する。
我々の計算モデルは、タイムスタンプから局所情報を学習し、連続関数を生成する。
我々はMIM-RBFNNが生成した連続関数を用いたMIRNN-CF(Missing Value Imputation Recurrent Neural Network)と呼ばれる拡張を提案する。
論文 参考訳(メタデータ) (2024-07-24T07:02:16Z) - Filling out the missing gaps: Time Series Imputation with
Semi-Supervised Learning [7.8379910349669]
本稿では,ラベルなしデータと下流タスクのラベル付きデータの両方を利用する半教師付き計算手法ST-Imputeを提案する。
ST-Imputeはスパース自己注意に基づいており、計算過程を模倣するタスクを訓練する。
論文 参考訳(メタデータ) (2023-04-09T16:38:47Z) - STING: Self-attention based Time-series Imputation Networks using GAN [4.052758394413726]
GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
論文 参考訳(メタデータ) (2022-09-22T06:06:56Z) - Reduced Robust Random Cut Forest for Out-Of-Distribution detection in
machine learning models [0.799536002595393]
ほとんどの機械学習ベースの回帰器は、限られた長さの過去の観測を通して収集されたデータから情報を抽出し、将来予測する。
これらのトレーニングモデルへの入力は、トレーニングに使用されるデータと統計特性が著しく異なるデータである場合、正確な予測は保証されない。
本稿では,ロバストランダムカットフォレストデータ構造を用いた新しい検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-18T17:01:40Z) - Networked Time Series Prediction with Incomplete Data [59.45358694862176]
我々は、歴史と未来の両方で欠落した値を持つ不完全なデータでトレーニングできる新しいディープラーニングフレームワークであるNetS-ImpGANを提案する。
3つの実世界のデータセットに対して、異なるパターンと欠落率で広範な実験を行う。
論文 参考訳(メタデータ) (2021-10-05T18:20:42Z) - MLReal: Bridging the gap between training on synthetic data and real
data applications in machine learning [1.9852463786440129]
本稿では,実際のデータ特徴を持つ合成データの教師付きトレーニングを強化するための新しいアプローチについて述べる。
トレーニング段階では、入力データは合成ドメインから、自動相関データは実ドメインからである。
推論/アプリケーション段階では、入力データは実サブセットドメインからであり、自己相関区間の平均は合成データサブセットドメインからである。
論文 参考訳(メタデータ) (2021-09-11T14:43:34Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Time-Series Imputation with Wasserstein Interpolation for Optimal
Look-Ahead-Bias and Variance Tradeoff [66.59869239999459]
ファイナンスでは、ポートフォリオ最適化モデルをトレーニングする前に、損失の計算を適用することができる。
インキュベーションのために全データセットを使用するルックアヘッドバイアスと、トレーニングデータのみを使用することによるインキュベーションの大きなばらつきとの間には、本質的にトレードオフがある。
提案手法は,提案法における差分とルックアヘッドバイアスのトレードオフを最適に制御するベイズ後部コンセンサス分布である。
論文 参考訳(メタデータ) (2021-02-25T09:05:35Z) - HYDRA: Hypergradient Data Relevance Analysis for Interpreting Deep
Neural Networks [51.143054943431665]
本稿では、深層ニューラルネットワーク(DNN)による予測をトレーニングデータの効果として解釈する高次データ関連分析(HYDRA)を提案する。
HYDRAは、トレーニング軌跡全体を通して、テストデータポイントに対するトレーニングデータの貢献を評価する。
さらに,HyDRAは,データのコントリビューションを正確に推定し,ノイズのあるデータラベルを検出することで,影響関数よりも優れていることを定量的に示す。
論文 参考訳(メタデータ) (2021-02-04T10:00:13Z) - DeepRite: Deep Recurrent Inverse TreatmEnt Weighting for Adjusting
Time-varying Confounding in Modern Longitudinal Observational Data [68.29870617697532]
時系列データにおける時間変化の相違に対するDeep Recurrent Inverse TreatmEnt重み付け(DeepRite)を提案する。
DeepRiteは、合成データから基底的真理を復元し、実際のデータから偏りのない処理効果を推定する。
論文 参考訳(メタデータ) (2020-10-28T15:05:08Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。