論文の概要: A Neural Phillips Curve and a Deep Output Gap
- arxiv url: http://arxiv.org/abs/2202.04146v1
- Date: Tue, 8 Feb 2022 21:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 15:47:33.037170
- Title: A Neural Phillips Curve and a Deep Output Gap
- Title(参考訳): 神経フィリップス曲線と深い出力ギャップ
- Authors: Philippe Goulet Coulombe
- Abstract要約: 本稿では,コンポーネントを潜伏状態と解釈可能な最終層を特徴とするニューラル半球ネットワーク(HNN)を提案する。
まず、HNNは、高次元の回帰器を潜在状態に変換する際に生じる非線形性の教師付き推定を行う。
また、HNNは2021年のインフレ上昇を先取りし、予想コンポーネントの急激かつ大々的に解体し、続いて2020年後半から大幅にプラスの差が続くと評価している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many problems plague the estimation of Phillips curves. Among them is the
hurdle that the two key components, inflation expectations and the output gap,
are both unobserved. Traditional remedies include creating reasonable proxies
for the notable absentees or extracting them via some form of assumptions-heavy
filtering procedure. I propose an alternative route: a Hemisphere Neural
Network (HNN) whose peculiar architecture yields a final layer where components
can be interpreted as latent states within a Neural Phillips Curve. There are
benefits. First, HNN conducts the supervised estimation of nonlinearities that
arise when translating a high-dimensional set of observed regressors into
latent states. Second, computations are fast. Third, forecasts are economically
interpretable. Fourth, inflation volatility can also be predicted by merely
adding a hemisphere to the model. Among other findings, the contribution of
real activity to inflation appears severely underestimated in traditional
econometric specifications. Also, HNN captures out-of-sample the 2021 upswing
in inflation and attributes it first to an abrupt and sizable disanchoring of
the expectations component, followed by a wildly positive gap starting from
late 2020. HNN's gap unique path comes from dispensing with unemployment and
GDP in favor of an amalgam of nonlinearly processed alternative tightness
indicators -- some of which are skyrocketing as of early 2022.
- Abstract(参考訳): 多くの問題はフィリップス曲線の推定を悩ませている。
そのうちの1つは、インフレ期待とアウトプットギャップという2つの重要な要素が共に観察できないというハードルである。
伝統的な治療には、著名な欠席者のための合理的なプロキシを作成したり、仮定重みのフィルタリング手順を通じてそれらを抽出することが含まれる。
特異なアーキテクチャを持つ半球型ニューラルネットワーク(hnn)は,コンポーネントをニューラルネットワークのフィリップス曲線内の潜在状態として解釈可能な最終層を生成する。
利点があります。
まず、HNNは高次元の回帰器を潜伏状態に変換する際に生じる非線形性の教師付き推定を行う。
第二に、計算は高速である。
第三に、予測は経済的に解釈可能である。
第4に、インフレーションのボラティリティはモデルに半球を追加するだけで予測できる。
インフレーションに対する実際の活動の寄与は、伝統的な計量的仕様では著しく過小評価されている。
また、HNNは2021年のインフレ上昇を先取りし、予想コンポーネントの急激かつ規模が縮小し、さらに2020年後半から大幅にプラスの差が続くと評価している。
HNNの独自の道のりは、失業率とGDPを排除し、非線形に処理された代替のタイツネス指標のアマルガムを優先することにある。
関連論文リスト
- Statistical Properties of Deep Neural Networks with Dependent Data [0.0]
本稿では, ディープニューラルネットワーク (DNN) 推定器の統計特性について, 従属データに基づく検討を行った。
このフレームワークは、他のDNNアーキテクチャや時系列アプリケーションの研究の可能性も提供する。
論文 参考訳(メタデータ) (2024-10-14T21:46:57Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Understanding and Mitigating Extrapolation Failures in Physics-Informed
Neural Networks [1.1510009152620668]
異なるタイプのPDEの代表的な集合上でのPINNの補間挙動について検討する。
その結果,外挿障害は解関数の高周波数によるものではなく,フーリエスペクトルの時間的支持の変化によるものであることがわかった。
論文 参考訳(メタデータ) (2023-06-15T20:08:42Z) - Negative Flux Aggregation to Estimate Feature Attributions [15.411534490483495]
セキュリティや透明性の懸念が高まる中で、ディープニューラルネットワーク(DNN)の動作を理解する必要性が高まっている。
DNNの説明可能性を高めるために,分岐とフラックスを用いた予測課題に対する入力特徴の属性を推定する。
ベクトル解析における発散定理に着想を得て,新しい負フラックス凝集法(NeFLAG)の定式化と,帰属写像を推定するための効率的な近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-17T16:19:41Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Disentangling deep neural networks with rectified linear units using
duality [4.683806391173103]
線形整流ユニット(ReLU)を用いたディープニューラルネットワーク(DNN)の解釈可能な新しい実装を提案する。
我々は、大域プールとスキップ接続との畳み込みが、それぞれ回転不変性とアンサンブル構造をニューラルパスカーネル(NPK)にもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-06T16:51:59Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Normalization effects on shallow neural networks and related asymptotic
expansions [20.48472873675696]
特に、ニューラルネットワークの正規化に繋がる異なるスケーリングスキームが、ネットワークの統計的出力に与える影響について検討する。
我々は、隠れたユニットの数が無限に増加するにつれて、スケーリングパラメータに関して、ニューラルネットワークの統計的出力をポイントワイズに拡張する。
我々は,ニューラルネットワークの統計的出力のばらつきが,平均場正規化に近づくにつれて,$N$で先行する傾向を示す。
論文 参考訳(メタデータ) (2020-11-20T16:33:28Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Network Moments: Extensions and Sparse-Smooth Attacks [59.24080620535988]
ガウス入力を受ける小片方向線形(PL)ネットワーク(Affine,ReLU,Affine)の第1モーメントと第2モーメントの正確な解析式を導出する。
本研究では,新しい分散式を効率的に近似し,より厳密な分散推定を行うことを示す。
論文 参考訳(メタデータ) (2020-06-21T11:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。