論文の概要: Ensemble Augmentation for Deep Neural Networks Using 1-D Time Series
Vibration Data
- arxiv url: http://arxiv.org/abs/2108.03288v1
- Date: Fri, 6 Aug 2021 20:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:48:42.474994
- Title: Ensemble Augmentation for Deep Neural Networks Using 1-D Time Series
Vibration Data
- Title(参考訳): 1次元時系列振動データを用いた深部ニューラルネットワークのアンサンブル強化
- Authors: Atik Faysal, Ngui Wai Keng, M. H. Lim
- Abstract要約: 時系列データは、データ駆動技術で使用される生データ表現の基本的なタイプの1つである。
Deep Neural Networks(DNN)は、最適なパフォーマンスを得るために、巨大なラベル付きトレーニングサンプルを必要とする。
本研究では,この制限を克服するために,アンサンブル拡張と呼ばれるデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time-series data are one of the fundamental types of raw data representation
used in data-driven techniques. In machine condition monitoring, time-series
vibration data are overly used in data mining for deep neural networks.
Typically, vibration data is converted into images for classification using
Deep Neural Networks (DNNs), and scalograms are the most effective form of
image representation. However, the DNN classifiers require huge labeled
training samples to reach their optimum performance. So, many forms of data
augmentation techniques are applied to the classifiers to compensate for the
lack of training samples. However, the scalograms are graphical representations
where the existing augmentation techniques suffer because they either change
the graphical meaning or have too much noise in the samples that change the
physical meaning. In this study, a data augmentation technique named ensemble
augmentation is proposed to overcome this limitation. This augmentation method
uses the power of white noise added in ensembles to the original samples to
generate real-like samples. After averaging the signal with ensembles, a new
signal is obtained that contains the characteristics of the original signal.
The parameters for the ensemble augmentation are validated using a simulated
signal. The proposed method is evaluated using 10 class bearing vibration data
using three state-of-the-art Transfer Learning (TL) models, namely,
Inception-V3, MobileNet-V2, and ResNet50. Augmented samples are generated in
two increments: the first increment generates the same number of fake samples
as the training samples, and in the second increment, the number of samples is
increased gradually. The outputs from the proposed method are compared with no
augmentation, augmentations using deep convolution generative adversarial
network (DCGAN), and several geometric transformation-based augmentations...
- Abstract(参考訳): 時系列データは、データ駆動技術で使用される生データ表現の基本的なタイプの1つである。
機械状態監視では、時系列振動データはディープニューラルネットワークのデータマイニングで過剰に使用される。
一般に、振動データはディープニューラルネットワーク(dnn)を使用して画像に変換され、スカルグラムは画像表現の最も効果的な形態である。
しかし、dnn分類器は最適な性能に達するために膨大なラベル付きトレーニングサンプルを必要とする。
したがって、トレーニングサンプルの欠如を補うために、分類器に多くの種類のデータ拡張技術が適用される。
しかしながら、スカルグラムはグラフィカルな意味を変えるか、物理的な意味を変えるサンプルにノイズが多すぎるため、既存の拡張技法が苦しむグラフィカルな表現である。
本研究では,この制限を克服するために,アンサンブル拡張というデータ拡張手法を提案する。
この拡張法は、原サンプルのアンサンブルに付加された白色雑音のパワーを用いて実状サンプルを生成する。
信号をアンサンブルで平均化すると、元の信号の特徴を含む新しい信号が得られる。
アンサンブル拡張のためのパラメータは、シミュレーション信号を用いて検証される。
提案手法は,inception-v3,mobilenet-v2,resnet50の3モデルを用いた10種類の振動データを用いて評価した。
増量サンプルは、トレーニングサンプルと同数の偽サンプルを生成する第1インクリメントと、第2インクリメントでは、徐々に増量される2つのインクリメントで生成される。
提案手法から得られる出力は, 増大しない, 深部畳み込み生成逆数ネットワーク(DCGAN)による増大, 幾何的変換に基づく増大などと比較される。
関連論文リスト
- cDVGAN: One Flexible Model for Multi-class Gravitational Wave Signal and Glitch Generation [0.7853804618032806]
本稿では,複数の時間領域観測のクラスをシミュレートする手法として,ジェネレーティブ・アドリアック・ネットワーク・フレームワークに新しい条件モデルを提案する。
提案したcDVGANは,3つのクラスの特徴を再現する4種類のベースラインGANモデルより優れている。
実験の結果,cDVGAN生成データによる畳み込みニューラルネットワークのトレーニングにより,検出器ノイズに埋め込まれたサンプルの検出が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:59:26Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Surgical Mask Detection with Convolutional Neural Networks and Data
Augmentations on Spectrograms [8.747840760772268]
人間の声のサンプルにおける手術用マスク検出の2値分類タスクに対するデータ拡張の効果を示す。
結果、ComParEのベースラインのほとんどがパフォーマンスに優れていたことが判明した。
論文 参考訳(メタデータ) (2020-08-11T09:02:47Z) - Fully Convolutional Neural Networks for Raw Eye Tracking Data
Segmentation, Generation, and Reconstruction [15.279153483132179]
眼球追跡データのセマンティックセグメンテーションに完全畳み込みニューラルネットワークを用いる。
また、これらのネットワークを再構成に使用し、変分自動エンコーダと組み合わせて眼球運動データを生成する。
論文 参考訳(メタデータ) (2020-02-17T06:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。