論文の概要: Adaptive Structured Pruning of Convolutional Neural Networks for Time Series Classification
- arxiv url: http://arxiv.org/abs/2602.12744v1
- Date: Fri, 13 Feb 2026 09:18:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.90166
- Title: Adaptive Structured Pruning of Convolutional Neural Networks for Time Series Classification
- Title(参考訳): 時系列分類のための畳み込みニューラルネットワークの適応的構造解析
- Authors: Javidan Abdullayev, Maxime Devanne, Cyril Meyer, Ali Ismail-Fawaz, Jonathan Weber, Germain Forestier,
- Abstract要約: 畳み込み型TSCモデルのための完全に自動化された構造化プルーニングフレームワークである動的構造化プルーニング(DSP)を提案する。
LITETimeは平均58%,InceptionTimeアーキテクチャは75%であり,分類精度は高い。
冗長性解析は、DSPがコンパクトで情報的な表現を生成することを確認し、スケーラブルで効率的な深部TSCデプロイメントのための実践的なパスを提供する。
- 参考スコア(独自算出の注目度): 0.776514389034479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models for Time Series Classification (TSC) have achieved strong predictive performance but their high computational and memory requirements often limit deployment on resource-constrained devices. While structured pruning can address these issues by removing redundant filters, existing methods typically rely on manually tuned hyperparameters such as pruning ratios which limit scalability and generalization across datasets. In this work, we propose Dynamic Structured Pruning (DSP), a fully automatic, structured pruning framework for convolution-based TSC models. DSP introduces an instance-wise sparsity loss during training to induce channel-level sparsity, followed by a global activation analysis to identify and prune redundant filters without needing any predefined pruning ratio. This work tackles computational bottlenecks of deep TSC models for deployment on resource-constrained devices. We validate DSP on 128 UCR datasets using two different deep state-of-the-art architectures: LITETime and InceptionTime. Our approach achieves an average compression of 58% for LITETime and 75% for InceptionTime architectures while maintaining classification accuracy. Redundancy analyses confirm that DSP produces compact and informative representations, offering a practical path for scalable and efficient deep TSC deployment.
- Abstract(参考訳): 時系列分類(TSC)のディープラーニングモデルは、強い予測性能を達成しているが、その高い計算とメモリ要求は、リソース制約のあるデバイスへのデプロイメントを制限することが多い。
構造化プルーニングは冗長なフィルタを取り除くことでこれらの問題に対処できるが、既存の手法は通常、データセット間のスケーラビリティと一般化を制限するプルーニング比のような手動で調整されたハイパーパラメータに依存する。
本研究では,畳み込みモデルのための完全に自動化された構造化プルーニングフレームワークである動的構造化プルーニング(DSP)を提案する。
DSPは、訓練中にチャネルレベルの疎度を誘導するインスタンスワイドの疎度損失を導入し、続いてグローバルアクティベーション分析により、事前定義されたプルーニング比を必要とせずに冗長フィルタを特定してプルーンする。
本研究は,資源制約されたデバイスに展開する深層TSCモデルの計算ボトルネックに対処する。
LITETimeとInceptionTimeの2つの異なる最先端アーキテクチャを用いて、128のUCRデータセット上のDSPを検証する。
LITETimeは平均58%,InceptionTimeアーキテクチャは75%であり,分類精度は高い。
冗長性解析は、DSPがコンパクトで情報的な表現を生成し、スケーラブルで効率的な深部TSCデプロイメントのための実践的なパスを提供することを確認した。
関連論文リスト
- Structure-Aware Automatic Channel Pruning by Searching with Graph Embedding [28.03880549472142]
チャネルプルーニングはディープニューラルネットワークの計算オーバーヘッドを低減するための強力な技術である。
ネットワークトポロジをモデル化し,各チャネルのグローバルな重要性を学習するための,構造対応自動チャネルプルーニング(SACP)フレームワークを提案する。
SACPは圧縮効率と精度保持の競争力において最先端のプルーニング法より優れている。
論文 参考訳(メタデータ) (2025-06-13T05:05:35Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - REDS: Resource-Efficient Deep Subnetworks for Dynamic Resource Constraints [2.9209462960232235]
最先端の機械学習パイプラインは、実行時に適応できないリソースに依存しないモデルを生成する。
本稿では,資源効率の高いDeep Subnetworks (REDS) を導入し,変動資源へのモデル適応に取り組む。
論文 参考訳(メタデータ) (2023-11-22T12:34:51Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Dynamic Sparse Network for Time Series Classification: Learning What to
"see'' [17.705879794117912]
時系列分類のための疎接続を有する動的スパースネットワーク(DSN)を提案する。
各スパース層のカーネルはスパースであり、動的スパーストレーニングによって制約領域の下で探索することができるため、リソースコストを削減できる。
論文 参考訳(メタデータ) (2022-12-19T20:32:27Z) - STN: Scalable Tensorizing Networks via Structure-Aware Training and
Adaptive Compression [10.067082377396586]
本稿では,モデルサイズと分解構造を適応的に調整するスケーラビリティネットワーク(STN)を提案する。
STNは任意のネットワークアーキテクチャと互換性があり、他のテンソル化バージョンよりも高い圧縮性能と柔軟性を実現する。
論文 参考訳(メタデータ) (2022-05-30T15:50:48Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - A Generic Network Compression Framework for Sequential Recommender
Systems [71.81962915192022]
シークエンシャルレコメンデーションシステム(SRS)は,ユーザの動的関心を捉え,高品質なレコメンデーションを生成する上で重要な技術となっている。
CpRecと呼ばれる圧縮されたシーケンシャルレコメンデーションフレームワークを提案する。
大規模なアブレーション研究により、提案したCpRecは実世界のSRSデータセットにおいて最大4$sim$8倍の圧縮速度を達成できることを示した。
論文 参考訳(メタデータ) (2020-04-21T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。