論文の概要: The boosted HP filter is more general than you might think
- arxiv url: http://arxiv.org/abs/2209.09810v1
- Date: Tue, 20 Sep 2022 15:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:02:15.927569
- Title: The boosted HP filter is more general than you might think
- Title(参考訳): HPの強化フィルターは、想像以上に一般的なものだ
- Authors: Ziwei Mei, Peter C. B. Phillips, Zhentao Shi
- Abstract要約: boostingは最近、一般的なHPフィルタを、データリッチで高速な計算環境に適した現代的な機械学習デバイスにアップグレードした。
本稿では,HPフィルタのスムース化と一般トレンド検出の高速化による整合性の両方を簡易に説明しながら,トレンドサイクル決定の汎用性に光を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The global financial crisis and Covid recession have renewed discussion
concerning trend-cycle discovery in macroeconomic data, and boosting has
recently upgraded the popular HP filter to a modern machine learning device
suited to data-rich and rapid computational environments. This paper sheds
light on its versatility in trend-cycle determination, explaining in a simple
manner both HP filter smoothing and the consistency delivered by boosting for
general trend detection. Applied to a universe of time series in FRED
databases, boosting outperforms other methods in timely capturing downturns at
crises and recoveries that follow. With its wide applicability the boosted HP
filter is a useful automated machine learning addition to the macroeconometric
toolkit.
- Abstract(参考訳): 世界的な金融危機とコビッド不況は、マクロ経済データにおけるトレンドサイクル発見に関する新たな議論を巻き起こし、最近、人気のHPフィルタを、データリッチで高速な計算環境に適した現代的な機械学習デバイスにアップグレードした。
本稿では,HPフィルタのスムース化と一般トレンド検出の高速化による整合性の両方を簡易に説明しながら,トレンドサイクル決定の汎用性に光を当てる。
fred databaseの時系列の宇宙に適用することで、危機や回復時のダウンターンをタイムリーに捉えて、他の手法を上回ります。
適用範囲が広いHPフィルタは,マクロコノメトリツールキットに機械学習を自動で追加する手段として有用である。
関連論文リスト
- Projected Off-Policy Q-Learning (POP-QL) for Stabilizing Offline
Reinforcement Learning [57.83919813698673]
Projected Off-Policy Q-Learning (POP-QL) は、政治外のサンプルを同時に重み付け、分散を防止し、価値近似誤差を減らすためにポリシーを制約する新しいアクタ批判アルゴリズムである。
我々の実験では、POP-QLは標準ベンチマーク上での競合性能を示すだけでなく、データ収集ポリシーがかなり最適化されていないタスクにおいて競合するメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-11-25T00:30:58Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled
Prescriptive Maintenance Framework [62.73424880653293]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - SLACK: Stable Learning of Augmentations with Cold-start and KL
regularization [47.948446737358566]
我々は,事前知識を活用せずに拡張政策を学習することを提案する。
結果として生じる二値最適化問題は、より広い探索空間と二値最適化アルゴリズムの固有の不安定性により、より困難になる。
我々のアプローチは、より困難な設定にもかかわらず、標準ベンチマーク上での競合結果をもたらし、自然画像を超えて一般化する。
論文 参考訳(メタデータ) (2023-06-16T17:51:07Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Deep reinforcement learning for automatic run-time adaptation of UWB PHY
radio settings [3.7885834570803842]
本稿では,信頼性の高いUWB通信の実現,パケット受信率(PRR)の最大化,エネルギー消費の最小化を目的とした深層Q-ラーニング手法を提案する。
その結果, 動的オフィス環境における固定PHY設定に比べて14%のエネルギーしか使用せず, 高い平均PRRを実現し, レンジ誤差を低減できることがわかった。
論文 参考訳(メタデータ) (2022-10-13T13:47:12Z) - Unsupervised Recurrent Federated Learning for Edge Popularity Prediction
in Privacy-Preserving Mobile Edge Computing Networks [31.871608633577047]
本稿では,MEC対応IIoTのための教師なし,プライバシ保護による人気予測フレームワークを提案する。
提案したフレームワークは、ルート平均二乗誤差を最大60.5%-68.7%まで削減することで予測精度を向上させることができる。
論文 参考訳(メタデータ) (2022-07-02T06:50:54Z) - Concept Drift Adaptation for CTR Prediction in Online Advertising
Systems [6.900209851954917]
クリックスルー率(CTR)予測は、ウェブ検索、レコメンダシステム、オンライン広告表示において重要な課題である。
本稿では,CTR予測データストリームにおける適応フィルタリングによるコンセプトドリフト問題を軽減するために,専門家の適応混合(AdaMoE)を提案する。
論文 参考訳(メタデータ) (2022-04-01T07:43:43Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Automating Control of Overestimation Bias for Continuous Reinforcement
Learning [65.63607016094305]
バイアス補正を導くためのデータ駆動型手法を提案する。
我々は、最先端の連続制御アルゴリズムであるTrncated Quantile Criticsにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2021-10-26T09:27:12Z) - Artificial Intelligence in Electric Machine Drives: Advances and Trends [0.0]
本稿では、従来のAI技術と高度なディープラーニングアルゴリズムを電動機ドライブに適用するための文献を体系的に要約する。
ディープラーニングモデルと組み込みハードウェアプラットフォームの急速な進歩により、AIベースのデータ駆動アプローチが、電動機の自動高性能制御において、ますます人気が高まることが期待されている。
論文 参考訳(メタデータ) (2021-10-11T16:42:23Z) - Data-driven battery operation for energy arbitrage using rainbow deep
reinforcement learning [1.8175650854482457]
モデルフリーの深部強化学習アルゴリズムであるRainbow Deep Q-Networksは、小さなマイクログリッドのバッテリーを制御するために使用される。
このグリッドは、キール大学で収集されたデータセットに基づいて、独自の需要と再生可能世代で運用されている。
論文 参考訳(メタデータ) (2021-06-10T21:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。