論文の概要: Wavelet Networks: Scale-Translation Equivariant Learning From Raw
Time-Series
- arxiv url: http://arxiv.org/abs/2006.05259v2
- Date: Sun, 21 Jan 2024 11:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 00:45:12.128753
- Title: Wavelet Networks: Scale-Translation Equivariant Learning From Raw
Time-Series
- Title(参考訳): Wavelet Networks:生の時系列から学習するスケール-トランスレーション
- Authors: David W. Romero, Erik J. Bekkers, Jakub M. Tomczak, Mark Hoogendoorn
- Abstract要約: スケール変換同変写像はウェーブレット変換と強い類似性を持っている。
この類似性に着想を得て、我々のネットワークをウェーブレットネットワークと呼び、ネストした非線形ウェーブレットのような時間周波数変換を行うことを示す。
- 参考スコア(独自算出の注目度): 31.73386289965465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging the symmetries inherent to specific data domains for the
construction of equivariant neural networks has lead to remarkable improvements
in terms of data efficiency and generalization. However, most existing research
focuses on symmetries arising from planar and volumetric data, leaving a
crucial data source largely underexplored: time-series. In this work, we fill
this gap by leveraging the symmetries inherent to time-series for the
construction of equivariant neural network. We identify two core symmetries:
*scale and translation*, and construct scale-translation equivariant neural
networks for time-series learning. Intriguingly, we find that scale-translation
equivariant mappings share strong resemblance with the wavelet transform.
Inspired by this resemblance, we term our networks Wavelet Networks, and show
that they perform nested non-linear wavelet-like time-frequency transforms.
Empirical results show that Wavelet Networks outperform conventional CNNs on
raw waveforms, and match strongly engineered spectrogram techniques across
several tasks and time-series types, including audio, environmental sounds, and
electrical signals. Our code is publicly available at
https://github.com/dwromero/wavelet_networks.
- Abstract(参考訳): 同変ニューラルネットワーク構築のために、特定のデータ領域に固有の対称性を活用することは、データ効率と一般化の点で著しく改善される。
しかし、既存の研究のほとんどは平面データと体積データから生じる対称性に焦点を当てており、重要なデータソースはほとんどが未調査の時系列である。
本研究では,同変ニューラルネットワークの構築に時系列固有の対称性を活用することにより,このギャップを埋める。
スケールと翻訳*という2つのコア対称性を同定し、時系列学習のためのスケール変換同変ニューラルネットワークを構築する。
興味深いことに、スケール変換同変写像はウェーブレット変換と強い類似性を持つ。
この類似性に着想を得て、我々のネットワークをウェーブレットネットワークと呼び、ネストした非線形ウェーブレットのような時間周波数変換を行うことを示す。
実験結果から、ウェーブレットネットワークは生波形上で従来のCNNよりも優れており、音響、環境音、電気信号など、様々なタスクや時系列タイプにわたる強力な分光法と一致していることがわかった。
私たちのコードはhttps://github.com/dwromero/wavelet_networksで公開されています。
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Time Scale Network: A Shallow Neural Network For Time Series Data [18.46091267922322]
時系列データは、しばしば複数の時間スケールで情報で構成されている。
この情報を捉えるためのディープラーニング戦略は存在するが、ネットワークを大きくし、より多くのデータを必要とし、計算を要求されやすく、解釈が難しいものが多い。
本稿では,離散ウェーブレット変換における翻訳と拡張シーケンスと,従来の畳み込みニューラルネットワークとバックプロパゲーションを組み合わせた,最小かつ計算効率のタイムスケールネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-10T16:39:55Z) - WFTNet: Exploiting Global and Local Periodicity in Long-term Time Series
Forecasting [61.64303388738395]
本稿では,長期連続予測のためのWavelet-Fourier Transform Network (WFTNet)を提案する。
さまざまな時系列データセットのテストでは、WFTNetは他の最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-20T13:44:18Z) - Frequency and Scale Perspectives of Feature Extraction [5.081561820537235]
ニューラルネットワークの周波数とスケールに対する感度を分析する。
ニューラルネットワークは低周波と中周波のバイアスを持つが、異なるクラスに対して異なる周波数帯域を好む。
これらの観察により、ニューラルネットワークは様々なスケールと周波数で特徴を抽出する能力を学ぶ必要があるという仮説が導かれる。
論文 参考訳(メタデータ) (2023-02-24T06:37:36Z) - Fast Temporal Wavelet Graph Neural Networks [7.477634824955323]
時系列データに基づくタスク学習のためのFTWGNN(Fast Temporal Wavelet Graph Neural Networks)を提案する。
我々は高密度グラフ構造を分解し、対応するスパースウェーブレット基底を計算するために、MMF(Multi resolution Matrix Factorization)を用いる。
実世界のPEMS-BAY, METR-LAトラフィックデータセット, AJILE12 ECoGデータセットによる実験結果から,FTWGNNは最先端技術と競合していることが示された。
論文 参考訳(メタデータ) (2023-02-17T01:21:45Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Trainable Wavelet Neural Network for Non-Stationary Signals [0.0]
本研究は,非定常信号に適合するフィルタバンクを学習するためのウェーブレットニューラルネットワークを導入し,デジタル信号処理の解釈性と性能を向上させる。
このネットワークは、複雑なモレットウェーブレットのパラメータ化関数である畳み込みがニューラルネットワークの第1層としてウェーブレット変換を使用する。
論文 参考訳(メタデータ) (2022-05-06T16:41:27Z) - TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network [4.989480853499916]
時系列データは、医療機械学習アプリケーションで使用される最も一般的なタイプのデータの1つである。
本稿では,現実的な合成時系列データ列を生成可能な変換器ベースのGANであるTS-GANを紹介する。
実時間と生成した時系列データの類似性を実証するために,可視化と次元削減技術を用いている。
論文 参考訳(メタデータ) (2022-02-06T03:05:47Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Three-Way Deep Neural Network for Radio Frequency Map Generation and
Source Localization [67.93423427193055]
空間、時間、周波数領域にわたる無線スペクトルのモニタリングは、5Gと6G以上の通信技術において重要な特徴となる。
本稿では,空間領域全体にわたる不規則分散計測を補間するGAN(Generative Adversarial Network)機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-23T22:25:10Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。