論文の概要: SparseST: Exploiting Data Sparsity in Spatiotemporal Modeling and Prediction
- arxiv url: http://arxiv.org/abs/2511.14753v1
- Date: Tue, 18 Nov 2025 18:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.272252
- Title: SparseST: Exploiting Data Sparsity in Spatiotemporal Modeling and Prediction
- Title(参考訳): SparseST:時空間モデリングと予測におけるデータの分散の爆発
- Authors: Junfeng Wu, Hadjer Benmeziane, Kaoutar El Maghraoui, Liu Liu, Yinan Wang,
- Abstract要約: 我々は,効率的なモデルを開発するために,データの疎性を利用する新しいフレームワークであるSparseSTを開発した。
また,多目的複合損失関数を設計することにより,モデル性能と計算効率の面を探索し,近似する。
- 参考スコア(独自算出の注目度): 17.919235390330595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatiotemporal data mining (STDM) has a wide range of applications in various complex physical systems (CPS), i.e., transportation, manufacturing, healthcare, etc. Among all the proposed methods, the Convolutional Long Short-Term Memory (ConvLSTM) has proved to be generalizable and extendable in different applications and has multiple variants achieving state-of-the-art performance in various STDM applications. However, ConvLSTM and its variants are computationally expensive, which makes them inapplicable in edge devices with limited computational resources. With the emerging need for edge computing in CPS, efficient AI is essential to reduce the computational cost while preserving the model performance. Common methods of efficient AI are developed to reduce redundancy in model capacity (i.e., model pruning, compression, etc.). However, spatiotemporal data mining naturally requires extensive model capacity, as the embedded dependencies in spatiotemporal data are complex and hard to capture, which limits the model redundancy. Instead, there is a fairly high level of data and feature redundancy that introduces an unnecessary computational burden, which has been largely overlooked in existing research. Therefore, we developed a novel framework SparseST, that pioneered in exploiting data sparsity to develop an efficient spatiotemporal model. In addition, we explore and approximate the Pareto front between model performance and computational efficiency by designing a multi-objective composite loss function, which provides a practical guide for practitioners to adjust the model according to computational resource constraints and the performance requirements of downstream tasks.
- Abstract(参考訳): 時空間データマイニング(STDM)は、様々な複雑な物理システム(CPS)、すなわち輸送、製造、医療などにおいて幅広い応用がある。
提案手法のうち、ConvLSTM(Convolutional Long Short-Term Memory)は、様々なアプリケーションで一般化可能で拡張可能であることが証明され、様々なSTDMアプリケーションで最先端の性能を達成する複数の変種が存在する。
しかし、ConvLSTMとその変種は計算コストが高く、計算資源が限られているエッジデバイスでは適用できない。
CPSにおけるエッジコンピューティングの必要性が高まっているため、効率的なAIは、モデルパフォーマンスを維持しながら計算コストを削減するために不可欠である。
効率的なAIの一般的な方法は、モデルのキャパシティ(モデルプルーニング、圧縮など)の冗長性を低減するために開発されている。
しかし、時空間データマイニングは、時空間データに埋め込まれた依存関係が複雑でキャプチャが困難であるため、モデル冗長性を制限するため、当然、広範囲なモデルキャパシティを必要とする。
代わりに、かなり高いレベルのデータと特徴の冗長性があり、不要な計算負荷をもたらし、これは既存の研究で見過ごされてきた。
そこで我々は,データ空間性を生かした新しいフレームワークSparseSTを開発し,効率的な時空間モデルを構築した。
さらに、多目的複合損失関数を設計することにより、モデル性能と計算効率の間のParetoフロントを探索、近似し、計算資源の制約や下流タスクの性能要求に応じてモデルを調整する実践者のための実用的なガイドを提供する。
関連論文リスト
- ResFormer: All-Time Reservoir Memory for Long Sequence Classification [4.298381633106637]
シーケンス分類は、感情分析、意図検出、トピック分類といったタスクにおける言語パターンの理解と分類に欠かせない。
トランスフォーマーベースのモデルは、最先端のパフォーマンスを達成しているにもかかわらず、2次時間とメモリの複雑さのために固有の制限がある。
提案するResFormerは,カスケード手法を用いて,コンテキスト長を効率的にモデル化するニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2025-09-28T21:20:49Z) - Lightweight Task-Oriented Semantic Communication Empowered by Large-Scale AI Models [66.57755931421285]
大規模人工知能(LAI)モデルは、リアルタイム通信シナリオにおいて重大な課題を提起する。
本稿では,LAIモデルから知識を抽出・凝縮するために知識蒸留(KD)技術を活用することを提案する。
本稿では,反復推論の必要性を排除したプレストア圧縮機構を備えた高速蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-16T08:42:16Z) - KDC-Diff: A Latent-Aware Diffusion Model with Knowledge Retention for Memory-Efficient Image Generation [2.0250638970950905]
KDC-Diffは、ハイパフォーマンスを維持しながら計算オーバーヘッドを大幅に削減するために設計された、新しくスケーラブルな生成フレームワークである。
本モデルでは,FID,CLIP,KID,LPIPSの指標に対して,パラメータ数,推論時間,FLOPの大幅な削減を実現し,高い性能を示す。
論文 参考訳(メタデータ) (2025-05-11T14:40:51Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [86.76714527437383]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - CoSTI: Consistency Models for (a faster) Spatio-Temporal Imputation [0.0]
CoSTIは、推論時間を劇的に削減しつつ、DDPMに匹敵する計算品質を達成するために一貫性トレーニングを採用している。
複数のデータセットとデータシナリオをまたいだCoSTIを評価し、拡散モデルと同等のパフォーマンスで、計算時間を最大98%削減することを示した。
論文 参考訳(メタデータ) (2025-01-31T18:14:28Z) - Perceiver-based CDF Modeling for Time Series Forecasting [25.26713741799865]
本稿では,時系列データの累積分布関数(CDF)をモデル化するための新しいアーキテクチャであるPerceiver-CDFを提案する。
提案手法は,マルチモーダル時系列予測に適したコプラに基づくアテンション機構と,知覚アーキテクチャを組み合わせたものである。
単調かつマルチモーダルなベンチマークの実験は、最先端の手法よりも20%改善されていることを一貫して示している。
論文 参考訳(メタデータ) (2023-10-03T01:13:17Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。