論文の概要: RandomNet: Clustering Time Series Using Untrained Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2408.07956v2
- Date: Fri, 16 Aug 2024 20:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 11:11:17.307211
- Title: RandomNet: Clustering Time Series Using Untrained Deep Neural Networks
- Title(参考訳): RandomNet: トレーニングされていないディープニューラルネットワークによる時系列クラスタリング
- Authors: Xiaosheng Li, Wenjie Xi, Jessica Lin,
- Abstract要約: 我々は、訓練されていないディープニューラルネットワークをクラスタ時系列に利用する新しいアプローチRandomNetを提案する。
我々は、よく知られたUCR時系列アーカイブにおいて、128のデータセット全てについて広範な実験を行う。
実験の結果,提案手法は既存の最先端手法と競合することがわかった。
- 参考スコア(独自算出の注目度): 1.5860429142045245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are widely used in machine learning and data mining. Typically, these networks need to be trained, implying the adjustment of weights (parameters) within the network based on the input data. In this work, we propose a novel approach, RandomNet, that employs untrained deep neural networks to cluster time series. RandomNet uses different sets of random weights to extract diverse representations of time series and then ensembles the clustering relationships derived from these different representations to build the final clustering results. By extracting diverse representations, our model can effectively handle time series with different characteristics. Since all parameters are randomly generated, no training is required during the process. We provide a theoretical analysis of the effectiveness of the method. To validate its performance, we conduct extensive experiments on all of the 128 datasets in the well-known UCR time series archive and perform statistical analysis of the results. These datasets have different sizes, sequence lengths, and they are from diverse fields. The experimental results show that the proposed method is competitive compared with existing state-of-the-art methods.
- Abstract(参考訳): ニューラルネットワークは機械学習やデータマイニングに広く利用されている。
通常、これらのネットワークはトレーニングされ、入力データに基づいてネットワーク内の重み(パラメータ)を調整する必要がある。
本研究では、トレーニングされていないディープニューラルネットワークをクラスタ時系列に利用する新しいアプローチRandomNetを提案する。
RandomNetは、異なるランダムな重みのセットを使用して時系列の多様な表現を抽出し、これらの異なる表現から派生したクラスタリング関係をアンサンブルして最終的なクラスタリング結果を構築する。
多様な表現を抽出することにより,異なる特徴を持つ時系列を効果的に処理することができる。
すべてのパラメータはランダムに生成されるので、プロセス中にトレーニングは必要ありません。
提案手法の有効性に関する理論的解析を行う。
その性能を検証するために、よく知られたUCR時系列アーカイブにおいて、128のデータセットすべてに対して広範な実験を行い、その結果を統計的に分析する。
これらのデータセットはサイズやシーケンスの長さが異なり、さまざまな分野から来ている。
実験の結果,提案手法は既存の最先端手法と競合することがわかった。
関連論文リスト
- Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - MTS2Graph: Interpretable Multivariate Time Series Classification with
Temporal Evolving Graphs [1.1756822700775666]
入力代表パターンを抽出・クラスタリングすることで時系列データを解釈する新しいフレームワークを提案する。
UCR/UEAアーカイブの8つのデータセットとHARとPAMデータセットで実験を行います。
論文 参考訳(メタデータ) (2023-06-06T16:24:27Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - STING: Self-attention based Time-series Imputation Networks using GAN [4.052758394413726]
GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
論文 参考訳(メタデータ) (2022-09-22T06:06:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Dual Lottery Ticket Hypothesis [71.95937879869334]
Lottery Ticket hypothesis (LTH)は、スパースネットワークトレーニングを調査し、その能力を維持するための新しい視点を提供する。
本稿では,LTHの当選チケットをトレーニング可能なサブネットワークとして,その性能をベンチマークとして検討する。
本稿では,簡単なスパースネットワークトレーニング戦略であるランダムスパースネットワークトランスフォーメーション(RST)を提案し,DLTHを裏付ける。
論文 参考訳(メタデータ) (2022-03-08T18:06:26Z) - Time Series Anomaly Detection by Cumulative Radon Features [32.36217153362305]
本研究は,分布距離測定と組み合わせた場合,浅部特徴が十分であると主張する。
提案手法は,各時系列を高次元的特徴分布としてモデル化する。
累積ラドン特徴量を用いて各時系列をパラメータ化することにより、正規時系列の分布を効率的に効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2022-02-08T18:58:53Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Time Series Data Augmentation for Neural Networks by Time Warping with a
Discriminative Teacher [17.20906062729132]
本稿では,ガイド付きワープと呼ばれる新しい時系列データ拡張を提案する。
ガイド付きワープは動的時間ワープ(DTW)と形状DTWの要素アライメント特性を利用する。
我々は、深部畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を用いて、2015 UCR Time Series Archiveにある85のデータセットすべてに対する手法の評価を行った。
論文 参考訳(メタデータ) (2020-04-19T06:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。