論文の概要: A Dataset Fusion Algorithm for Generalised Anomaly Detection in
Homogeneous Periodic Time Series Datasets
- arxiv url: http://arxiv.org/abs/2305.08197v1
- Date: Sun, 14 May 2023 16:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 16:57:06.202992
- Title: A Dataset Fusion Algorithm for Generalised Anomaly Detection in
Homogeneous Periodic Time Series Datasets
- Title(参考訳): 一様周期時系列データセットにおける一般化異常検出のためのデータセット融合アルゴリズム
- Authors: Ayman Elhalwagy and Tatiana Kalganova
- Abstract要約: データセットフュージョン(Dataset Fusion)とは、複数の同種データセットからの周期的な信号を単一のデータセットに融合するアルゴリズムである。
提案手法は,平均F1スコア0.879で従来の訓練方法よりも有意に優れていた。
その結果、トレーニングデータの6.25%しか使用せず、計算能力の93.7%削減に換算すると、パフォーマンスは4.04%低下することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generalisation of Neural Networks (NN) to multiple datasets is often
overlooked in literature due to NNs typically being optimised for specific data
sources. This becomes especially challenging in time-series-based multi-dataset
models due to difficulties in fusing sequential data from different sensors and
collection specifications. In a commercial environment, however, generalisation
can effectively utilise available data and computational power, which is
essential in the context of Green AI, the sustainable development of AI models.
This paper introduces "Dataset Fusion," a novel dataset composition algorithm
for fusing periodic signals from multiple homogeneous datasets into a single
dataset while retaining unique features for generalised anomaly detection. The
proposed approach, tested on a case study of 3-phase current data from 2
different homogeneous Induction Motor (IM) fault datasets using an unsupervised
LSTMCaps NN, significantly outperforms conventional training approaches with an
Average F1 score of 0.879 and effectively generalises across all datasets. The
proposed approach was also tested with varying percentages of the training
data, in line with the principles of Green AI. Results show that using only
6.25\% of the training data, translating to a 93.7\% reduction in computational
power, results in a mere 4.04\% decrease in performance, demonstrating the
advantages of the proposed approach in terms of both performance and
computational efficiency. Moreover, the algorithm's effectiveness under
non-ideal conditions highlights its potential for practical use in real-world
applications.
- Abstract(参考訳): ニューラルネットワーク(NN)を複数のデータセットに一般化することは、NNが特定のデータソースに最適化されるため、文献でしばしば見過ごされる。
これは、異なるセンサからのシーケンシャルデータとコレクション仕様の融合が困難であるため、時系列ベースのマルチデータセットモデルでは特に困難になる。
しかし、商用環境では、AIモデルの持続可能な開発であるグリーンAIの文脈において不可欠である、利用可能なデータと計算能力を有効に活用することができる。
本稿では,複数の均質なデータセットから周期的信号を単一のデータセットに融合する新しいデータセット合成アルゴリズム"dataset fusion"を提案する。
提案手法は、教師なしLSTMCaps NNを用いた2種類の同種誘導電動機(IM)故障データセットの3相電流データをケーススタディで検証し、平均F1スコア0.879で従来のトレーニング手法を著しく上回り、全データセットにわたって効果的に一般化する。
提案されたアプローチは、Green AIの原則に従って、トレーニングデータのさまざまなパーセンテージでテストされた。
その結果、トレーニングデータの6.25\%しか使用せず、93.7\%の計算能力の低下に対応して、わずか4.04\%の性能低下となり、性能と計算効率の両方の観点から提案手法の利点が示された。
さらに,非理想条件下でのアルゴリズムの有効性は,実世界への応用の可能性を強調している。
関連論文リスト
- Generating Skyline Datasets for Data Science Models [11.454081868173725]
本稿では,複数のユーザ定義モデルパフォーマンス尺度を最適化することにより,データセットを検出するフレームワークであるMODisを紹介する。
スカイラインデータセットを生成するための3つの実現可能なアルゴリズムを導出する。
スカイラインデータ探索アルゴリズムの有効性と有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-02-16T20:33:59Z) - Generalized EXTRA stochastic gradient Langevin dynamics [11.382163777108385]
ランゲヴィンアルゴリズムは、ベイズ学習のためのマルコフ・チェイン・モンテカルロ法(Markov Chain Monte Carlo method)として人気がある。
Langevin dynamics (SGLD)のような彼らのバージョンは、ランダムにサンプリングされたミニバッチに基づいた反復学習を可能にする。
通信とプライバシーの制約を受けるエージェントのネットワークでデータが分散化されると、標準のSGLDアルゴリズムは適用できない。
論文 参考訳(メタデータ) (2024-12-02T21:57:30Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Approaching Metaheuristic Deep Learning Combos for Automated Data Mining [0.5419570023862531]
本研究では,メタヒューリスティック手法を従来の分類器やニューラルネットワークと組み合わせて自動データマイニングを行う手法を提案する。
手書き文字認識のためのMNISTデータセットの実験を行った。
根拠真理ラベル付きデータセットの検証精度は、これまで見つからなかった他のデータインスタンスのラベルを修正するのに不十分である、という実証的な観察がなされた。
論文 参考訳(メタデータ) (2024-10-16T10:28:22Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Towards Synthetic Multivariate Time Series Generation for Flare
Forecasting [5.098461305284216]
データ駆動・レアイベント予測アルゴリズムのトレーニングにおける制限要因の1つは、関心のあるイベントの不足である。
本研究では,データインフォームド・オーバーサンプリングを行う手段として,条件付き生成逆数ネットワーク(CGAN)の有用性を検討する。
論文 参考訳(メタデータ) (2021-05-16T22:23:23Z) - Efficient Construction of Nonlinear Models over Normalized Data [21.531781003420573]
混合モデルを構築するためにバイナリ結合とマルチウェイ結合の両方を系統的に分解する方法を示す。
本稿では,ネットワークの学習を因子的に行うアルゴリズムを提案し,性能上の優位性を提供する。
論文 参考訳(メタデータ) (2020-11-23T19:20:03Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。