論文の概要: CPformer -- Concept and Physics enhanced Transformer for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2508.01407v1
- Date: Sat, 02 Aug 2025 15:25:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.865339
- Title: CPformer -- Concept and Physics enhanced Transformer for Time Series Forecasting
- Title(参考訳): CPformer -- 時系列予測のための概念と物理強化トランス
- Authors: Hongwei Ma, Junbin Gao, Minh-Ngoc Tran,
- Abstract要約: 提案するCPformerは,5つのドメインに依存しない概念を通じて,すべての予測を伝達する概念的および物理学的変換器である。
最強のトランスフォーマーベースライン(FEDformer)に対して、CPformerは平均二乗誤差を23%、トラフィック44%、病気61%減らす。
- 参考スコア(独自算出の注目度): 27.542312745632458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate, explainable and physically-credible forecasting remains a persistent challenge for multivariate time-series whose statistical properties vary across domains. We present CPformer, a Concept- and Physics-enhanced Transformer that channels every prediction through five self-supervised, domain-agnostic concepts while enforcing differentiable residuals drawn from first-principle constraints. Unlike prior efficiency-oriented Transformers that rely purely on sparsity or frequency priors , CPformer combines latent transparency with hard scientific guidance while retaining attention for long contexts. We tested CPformer on six publicly-available datasets: sub-hourly Electricity and Traffic, hourly ETT, high-dimensional Weather, weekly Influenza-like Illness, and minute-level Exchange Rate, and CPformer achieves the lowest error in eight of twelve MSE/MAE cells. Relative to the strongest Transformer baseline (FEDformer), CPformer reduces mean-squared-error by 23% on Electricity, 44% on Traffic and 61% on Illness, while matching performance on strictly periodic Weather and ETT series.
- Abstract(参考訳): 正確な、説明可能な、物理的に計算可能な予測は、領域によって異なる統計特性を持つ多変量時系列に対して永続的な課題である。
CPformer は概念と物理を拡張した変換器で、5つの自己制御されたドメインに依存しない概念を通じて全ての予測を伝達し、第一原理制約から引き出された微分可能な残差を強制する。
従来の効率指向トランスフォーマーとは違い、CPformerは潜伏した透明性とハードな科学的ガイダンスを組み合わせながら、長いコンテキストに注意を払っている。
CPformerは12のMSE/MAE細胞のうち8つの最も低いエラーを達成し, サブアワー・エレクトリック・アンド・トラヒック, 時給ETT, 高次元気象, 毎週のインフルエンザ様の重症度, および微小レベルの交換率の6つのデータセットでCPformerを検証した。
最強のトランスフォーマーベースライン(FEDformer)に対して、CPformerは平均二乗誤差を23%、トラフィックは44%、病気は61%減らし、厳密な周期的気象とETTシリーズのパフォーマンスに匹敵する。
関連論文リスト
- Multi-Channel Swin Transformer Framework for Bearing Remaining Useful Life Prediction [2.600463444320238]
本稿では,ウェーブレットに基づくデノベーション手法であるウェーブレットパケット分解(WPD)と,これらの問題に対処するためにカスタマイズされたマルチチャネルスウィントランスモデル(MCSFormer)を組み合わせた新しいフレームワークを提案する。
特徴融合のための注意機構を組み込んだモデルでは、グローバルおよび局所的な劣化パターンを学習するように設計されている。
カスタマイズされた損失関数は、早期と後期の予測を区別するために、この作業の重要な区別として開発されている。
論文 参考訳(メタデータ) (2025-05-20T20:44:38Z) - PFformer: A Position-Free Transformer Variant for Extreme-Adaptive Multivariate Time Series Forecasting [9.511600544581425]
PFformerは、単一ターゲットのMSS予測用に設計された、位置のないトランスフォーマーベースのモデルである。
PFformerは、EFE(Enhanced Feature-based Embedding)とAEE(Auto-Encoder-based Embedding)の2つの新しい埋め込み戦略を統合している。
論文 参考訳(メタデータ) (2025-02-27T22:21:27Z) - Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - PTQ4DiT: Post-training Quantization for Diffusion Transformers [52.902071948957186]
ポストトレーニング量子化(PTQ)は、計算とメモリフットプリントを大幅に削減できる高速でデータ効率のソリューションとして登場した。
提案するPTQ4DiTは,DiTのための特別に設計されたPTQ手法である。
PTQ4DiTは8ビットの精度でDiTの量子化に成功した。
論文 参考訳(メタデータ) (2024-05-25T02:02:08Z) - Transformer Multivariate Forecasting: Less is More? [42.558736426375056]
本稿では,実行効率を最適化しながら予測精度を高めるために冗長な情報を削減することに焦点を当てる。
このフレームワークは、5つの最先端(SOTA)モデルと4つの多様な実世界のデータセットによって評価される。
PCA+Crossformer(PCA+Crossformer)は平均平方誤差(MSE)を33.3%減らし、平均で49.2%減らす。
論文 参考訳(メタデータ) (2023-12-30T13:44:23Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Non-stationary Transformers: Exploring the Stationarity in Time Series
Forecasting [86.33543833145457]
本稿では,2つの相互依存モジュールを持つ汎用フレームワークとして,非定常変圧器を提案する。
我々のフレームワークは、メインストリームのトランスフォーマーを、大きなマージンで継続的に増加させ、トランスフォーマーで49.43%、インフォーマーで47.34%、改革派で46.89%削減します。
論文 参考訳(メタデータ) (2022-05-28T12:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。