論文の概要: The boosted HP filter is more general than you might think
        - arxiv url: http://arxiv.org/abs/2209.09810v1
- Date: Tue, 20 Sep 2022 15:58:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-21 19:02:15.927569
- Title: The boosted HP filter is more general than you might think
- Title(参考訳): HPの強化フィルターは、想像以上に一般的なものだ
- Authors: Ziwei Mei, Peter C. B. Phillips, Zhentao Shi
- Abstract要約: boostingは最近、一般的なHPフィルタを、データリッチで高速な計算環境に適した現代的な機械学習デバイスにアップグレードした。
本稿では,HPフィルタのスムース化と一般トレンド検出の高速化による整合性の両方を簡易に説明しながら,トレンドサイクル決定の汎用性に光を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   The global financial crisis and Covid recession have renewed discussion
concerning trend-cycle discovery in macroeconomic data, and boosting has
recently upgraded the popular HP filter to a modern machine learning device
suited to data-rich and rapid computational environments. This paper sheds
light on its versatility in trend-cycle determination, explaining in a simple
manner both HP filter smoothing and the consistency delivered by boosting for
general trend detection. Applied to a universe of time series in FRED
databases, boosting outperforms other methods in timely capturing downturns at
crises and recoveries that follow. With its wide applicability the boosted HP
filter is a useful automated machine learning addition to the macroeconometric
toolkit.
- Abstract(参考訳): 世界的な金融危機とコビッド不況は、マクロ経済データにおけるトレンドサイクル発見に関する新たな議論を巻き起こし、最近、人気のHPフィルタを、データリッチで高速な計算環境に適した現代的な機械学習デバイスにアップグレードした。
本稿では,HPフィルタのスムース化と一般トレンド検出の高速化による整合性の両方を簡易に説明しながら,トレンドサイクル決定の汎用性に光を当てる。
fred databaseの時系列の宇宙に適用することで、危機や回復時のダウンターンをタイムリーに捉えて、他の手法を上回ります。
適用範囲が広いHPフィルタは,マクロコノメトリツールキットに機械学習を自動で追加する手段として有用である。
 
      
        関連論文リスト
        - Spark Transformer: Reactivating Sparsity in FFN and Attention [63.20677098823873]
 本稿では, FFNとアテンション機構の両方において, 高レベルのアクティベーション間隔を実現する新しいアーキテクチャであるSpark Transformerを紹介する。
これによりFLOPの2.5倍の削減が可能となり、CPUでは1.79倍、GPUでは1.40倍となる。
 論文  参考訳(メタデータ) (2025-06-07T03:51:13Z)
- FlashBias: Fast Computation of Attention with Bias [77.39043478894504]
 本稿では,低ランク圧縮センシング理論に基づくFlashBiasを提案する。
FlashBiasは、最新のGPUで非常に最適化された行列乗算演算をフル活用でき、AlphaFoldの1.5$times$スピードアップ、そして2$times$スピードアップを達成した。
 論文  参考訳(メタデータ) (2025-05-17T15:12:50Z)
- Rolling Forward: Enhancing LightGCN with Causal Graph Convolution for   Credit Bond Recommendation [16.015835475954773]
 光グラフ畳み込みネットワーク(LightGCN: Light Graph Convolutional Network)の新たな拡張を導入し、動的興味を捉えた時間ノードの埋め込みを学習する。
私たちのアプローチでは、前方のモデルアーキテクチャを維持するために因果的畳み込みを採用しています。
この結果から,時間依存アプリケーションにおけるグラフベースのレコメンデータシステムの設計に関する新たな知見が得られた。
 論文  参考訳(メタデータ) (2025-03-18T12:47:01Z)
- Powerformer: A Transformer with Weighted Causal Attention for   Time-series Forecasting [50.298817606660826]
 我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
 論文  参考訳(メタデータ) (2025-02-10T04:42:11Z)
- TEAM: Topological Evolution-aware Framework for Traffic   Forecasting--Extended Version [24.544665297938437]
 交通予測のためのトポロジカル進化認識フレームワーク(TEAM)には、畳み込みと注意が組み込まれている。
TEAMは、予測精度を損なうことなく、既存の方法よりもはるかに低い再訓練コストを削減できる。
 論文  参考訳(メタデータ) (2024-10-24T22:50:21Z)
- An Efficient and Generalizable Symbolic Regression Method for Time   Series Analysis [13.530431636528519]
 時系列に対する textbfNeural-textbfEnhanced textbfMonte-Carlo textbfTree textbfSearch (NEMoTS) を提案する。
NEMoTSはシンボリックレグレッションにおいて検索空間を大幅に削減し、表現品質を向上させる。
3つの実世界のデータセットによる実験は、NEMoTSがパフォーマンス、効率、信頼性、解釈可能性において大きな優位性を示している。
 論文  参考訳(メタデータ) (2024-09-06T02:20:13Z)
- Momentum-Based Federated Reinforcement Learning with Interaction and   Communication Efficiency [16.002770483584694]
 フェデレート強化学習(FRL)が注目を集めている。
本稿では,新しいFRLアルゴリズムである$texttMFPO$を紹介する。
運動量パラメータと相互作用周波数の適切な選択により、$texttMFPO$は$tildemathcalO(H-1Nepsilon-3/2N)$および$tmathcalO(ilon-1N)$を達成することができる。
 論文  参考訳(メタデータ) (2024-05-24T03:23:37Z)
- TimeXer: Empowering Transformers for Time Series Forecasting with   Exogenous Variables [75.83318701911274]
 TimeXerは外部情報を取り込み、内因性変数の予測を強化する。
TimeXerは、12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
 論文  参考訳(メタデータ) (2024-02-29T11:54:35Z)
- TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
 TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
 論文  参考訳(メタデータ) (2024-01-06T06:26:49Z)
- Upscaling Global Hourly GPP with Temporal Fusion Transformer (TFT) [0.0]
 グロース・プライマリ・生産性は気候変動のイニシアチブを評価するのに不可欠である。
推定値は現在、わずかに分散した渦状共分散塔の場所からのみ入手可能である。
本研究では、TFT(Temporal Fusion Transformer)を用いた新しいアップスケーリングソリューションについて検討した。
 論文  参考訳(メタデータ) (2023-06-23T23:29:05Z)
- Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
  Distribution [57.71199089609161]
 長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
 論文  参考訳(メタデータ) (2023-01-05T13:59:29Z)
- Concept Drift Adaptation for CTR Prediction in Online Advertising
  Systems [6.900209851954917]
 クリックスルー率(CTR)予測は、ウェブ検索、レコメンダシステム、オンライン広告表示において重要な課題である。
本稿では,CTR予測データストリームにおける適応フィルタリングによるコンセプトドリフト問題を軽減するために,専門家の適応混合(AdaMoE)を提案する。
 論文  参考訳(メタデータ) (2022-04-01T07:43:43Z)
- Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
 Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
 論文  参考訳(メタデータ) (2022-02-23T18:23:07Z)
- Compute and Energy Consumption Trends in Deep Learning Inference [67.32875669386488]
 コンピュータビジョンと自然言語処理の分野における関連モデルについて検討する。
継続的な性能向上のために、これまで予想されていたよりもエネルギー消費の軟化が見られた。
 論文  参考訳(メタデータ) (2021-09-12T09:40:18Z)
- Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
  based on Hypernetwork [73.94896986868146]
 位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
 論文  参考訳(メタデータ) (2021-01-12T08:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。