論文の概要: KENN: Enhancing Deep Neural Networks by Leveraging Knowledge for Time
Series Forecasting
- arxiv url: http://arxiv.org/abs/2202.03903v2
- Date: Wed, 9 Feb 2022 11:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 12:46:07.798211
- Title: KENN: Enhancing Deep Neural Networks by Leveraging Knowledge for Time
Series Forecasting
- Title(参考訳): KENN: 時系列予測の知識を活用したディープニューラルネットワークの実現
- Authors: Muhammad Ali Chattha, Ludger van Elst, Muhammad Imran Malik, Andreas
Dengel, Sheraz Ahmed
- Abstract要約: 本稿では,時系列予測のための知識融合アーキテクチャである知識拡張ニューラルネットワーク(KENN)を提案する。
我々は、KENNがフレームワーク全体のデータ依存を減らすだけでなく、純粋に知識とデータ駆動ドメインによって生成されるものよりも優れた予測を生成することで、パフォーマンスを向上させることを示した。
- 参考スコア(独自算出の注目度): 6.652753636450873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end data-driven machine learning methods often have exuberant
requirements in terms of quality and quantity of training data which are often
impractical to fulfill in real-world applications. This is specifically true in
time series domain where problems like disaster prediction, anomaly detection,
and demand prediction often do not have a large amount of historical data.
Moreover, relying purely on past examples for training can be sub-optimal since
in doing so we ignore one very important domain i.e knowledge, which has its
own distinct advantages. In this paper, we propose a novel knowledge fusion
architecture, Knowledge Enhanced Neural Network (KENN), for time series
forecasting that specifically aims towards combining strengths of both
knowledge and data domains while mitigating their individual weaknesses. We
show that KENN not only reduces data dependency of the overall framework but
also improves performance by producing predictions that are better than the
ones produced by purely knowledge and data driven domains. We also compare KENN
with state-of-the-art forecasting methods and show that predictions produced by
KENN are significantly better even when trained on only 50\% of the data.
- Abstract(参考訳): エンドツーエンドのデータ駆動機械学習手法は、実世界のアプリケーションでは実現できないことが多い、トレーニングデータの質と量という面では、しばしば余分な要件を持っています。
これは特に、災害予測、異常検出、需要予測などの問題が大量の履歴データを持っていない時系列領域において当てはまる。
さらに、トレーニングの過去の例に純粋に依存することは、実行時に非常に重要なドメインである知識を無視し、独自のアドバンテージを持つため、サブ最適である。
本稿では,知識とデータドメインの強みを両立させ,個々の弱点を緩和することを目的とした時系列予測のための知識融合アーキテクチャである知識強化ニューラルネットワーク(KENN)を提案する。
我々は、KENNがフレームワーク全体のデータ依存を減らすだけでなく、純粋に知識とデータ駆動ドメインによって生成されるものよりも優れた予測を生成することで、パフォーマンスを向上させることを示した。
また,kennと最先端予測手法を比較し,50%のデータをトレーニングした場合においても,kennが生成する予測が有意に優れていることを示した。
関連論文リスト
- Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Deep Neural Networks Tend To Extrapolate Predictably [56.04573160453392]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Incorporating Unlabelled Data into Bayesian Neural Networks [60.51580870352031]
本稿では,事前予測分布の改善を学習するために,非ラベルデータを用いた自己教師付きベイズニューラルネットワークを提案する。
自己教師付き事前予測は,従来のBNNよりも画像意味を捕えやすいことを示す。
論文 参考訳(メタデータ) (2023-04-04T12:51:35Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Improving Neural Networks for Time Series Forecasting using Data
Augmentation and AutoML [0.0]
本稿では,ニューラルネットワークの性能を大幅に向上させるデータ拡張手法を提案する。
これは、Neural Architecture Searchのような自動機械学習技術を組み合わせることで、与えられた時系列に最適なニューラルネットワークを見つけるのに役立つことを示している。
論文 参考訳(メタデータ) (2021-03-02T19:20:49Z) - Domain Knowledge Empowered Structured Neural Net for End-to-End Event
Temporal Relation Extraction [44.95973272921582]
本稿では,確率的ドメイン知識によって構築された分布制約を持つディープニューラルネットワークを強化するフレームワークを提案する。
ラグランジアン緩和(Lagrangian Relaxation)により制約付き推論問題を解き、終端事象の時間的関係抽出タスクに適用する。
論文 参考訳(メタデータ) (2020-09-15T22:20:27Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - A Survey on Knowledge integration techniques with Artificial Neural
Networks for seq-2-seq/time series models [0.456877715768796]
ディープニューラルネットワークは、いくつかの領域における未チャージ領域の探索を可能にしている。
しかし、データ不足、データ品質の低さ、ドメインを広くカバーしていないかもしれないデータにより、パフォーマンスは低かった。
本稿では、シークエンス・ツー・シークエンスと時系列モデルのための専門知識をディープニューラルネットワークに統合する手法について検討する。
論文 参考訳(メタデータ) (2020-08-13T15:40:38Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。