論文の概要: Rapid Augmentations for Time Series (RATS): A High-Performance Library for Time Series Augmentation
- arxiv url: http://arxiv.org/abs/2601.03159v1
- Date: Tue, 06 Jan 2026 16:33:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.023126
- Title: Rapid Augmentations for Time Series (RATS): A High-Performance Library for Time Series Augmentation
- Title(参考訳): 時系列高速化のための高速拡張(RATS):時系列拡張のための高性能ライブラリ
- Authors: Wadie Skaf, Felix Kern, Aryamaan Basu Roy, Tejas Pradhan, Roman Kalkreuth, Holger Hoos,
- Abstract要約: RATS(Rapid Augmentations for Time Series)は、Pythonバインディング(RATSpy)を備えたRustで記述された時系列拡張のための高性能ライブラリである。
RATSpyは143データセット上で一般的に使用されるライブラリ(tasug)を平均74.5%高速化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series augmentation is critical for training robust deep learning models, particularly in domains where labelled data is scarce and expensive to obtain. However, existing augmentation libraries for time series, mainly written in Python, suffer from performance bottlenecks, where running time grows exponentially as dataset sizes increase -- an aspect limiting their applicability in large-scale, production-grade systems. We introduce RATS (Rapid Augmentations for Time Series), a high-performance library for time series augmentation written in Rust with Python bindings (RATSpy). RATS implements multiple augmentation methods spanning basic transformations, frequency-domain operations and time warping techniques, all accessible through a unified pipeline interface with built-in parallelisation. Comprehensive benchmarking of RATSpy versus a commonly used library (tasug) on 143 datasets demonstrates that RATSpy achieves an average speedup of 74.5\% over tsaug (up to 94.8\% on large datasets), with up to 47.9\% less peak memory usage.
- Abstract(参考訳): 時系列拡張は、堅牢なディープラーニングモデル、特にラベル付きデータが不足し、入手に費用がかかる領域のトレーニングに不可欠である。
しかし、Pythonで書かれた時系列の既存の拡張ライブラリは、データセットのサイズが大きくなるにつれて実行時間が指数関数的に増加するというパフォーマンスのボトルネックに悩まされている。
RATS(Rapid Augmentations for Time Series)は,Pythonバインディング(RATSpy)を備えたRustで記述された時系列拡張用高性能ライブラリである。
RATSは、基本変換、周波数領域操作、タイムワープ技術にまたがる複数の拡張メソッドを実装しており、すべて並列化を組み込んだ統一パイプラインインターフェースを通じてアクセス可能である。
143データセット上のRATSpyと一般的なライブラリ(tasug)の総合的なベンチマークは、RATSpyがtsaugよりも平均で74.5\%(大きなデータセットでは94.8\%)、ピークメモリ使用率が47.9\%以下であることを示している。
関連論文リスト
- PGT-I: Scaling Spatiotemporal GNNs with Memory-Efficient Distributed Training [9.433611717050942]
我々は、PyTorch Geometric Temporaltemporal Network(STG-NN)の拡張である、PyTorch Temporal Geometric Index(GTP-I)を提案する。
GTP-Iは分散データ並列トレーニングとインデックスバッチと分散インデックスバッチという2つの戦略を統合している。
本手法により,グラフを使わずに,PeMSデータセット全体のSTG-NNを初めてトレーニングすることが可能となる。
論文 参考訳(メタデータ) (2025-07-15T19:38:16Z) - ALT: A Python Package for Lightweight Feature Representation in Time Series Classification [0.0]
ALTは、効率的かつ正確な時系列分類(TSC)のために開発されたオープンソースのPythonパッケージである。
このパッケージは適応法則変換(ALT)アルゴリズムを実装し、可変長シフト時間窓を用いて生の時系列データを線形に分離可能な特徴空間に変換する。
論文 参考訳(メタデータ) (2025-04-17T10:57:29Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Feature-Based Time-Series Analysis in R using the theft Package [0.0]
時系列機能の集合を計算するための多くのオープンソースソフトウェアパッケージは、複数のプログラミング言語にまたがって存在している。
ここでは、これらの問題の解決策を、盗難と呼ばれるRソフトウェアパッケージに紹介する。
論文 参考訳(メタデータ) (2022-08-12T07:29:29Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Data Augmenting Contrastive Learning of Speech Representations in the
Time Domain [92.50459322938528]
時間領域データ拡張ライブラリであるWavAugmentを紹介します。
また, ピッチ修正, 付加音, 残響の組合せによってCPCの性能が著しく向上することが判明した。
また、時間領域データの増大は、下流の限られた超音素分類タスクを12~15%の確率で改善することを示した。
論文 参考訳(メタデータ) (2020-07-02T09:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。