論文の概要: Stacked Boosters Network Architecture for Short Term Load Forecasting in
Buildings
- arxiv url: http://arxiv.org/abs/2001.08406v2
- Date: Thu, 16 Apr 2020 05:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 10:10:32.451203
- Title: Stacked Boosters Network Architecture for Short Term Load Forecasting in
Buildings
- Title(参考訳): 建物における短期負荷予測のためのネットワークアーキテクチャ
- Authors: Tuukka Salmi, Jussi Kiljander and Daniel Pakkala
- Abstract要約: 本稿では,建築エネルギー負荷の短期的負荷予測のための新しいディープラーニングアーキテクチャを提案する。
このアーキテクチャは、単純なベースラーナーと、単一のディープニューラルネットワークとしてモデル化された複数のブースティングシステムに基づいている。
このアーキテクチャは、フィンランドのオフィスビルのエネルギーデータを用いて、短期的な負荷予測タスクで評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel deep learning architecture for short term load
forecasting of building energy loads. The architecture is based on a simple
base learner and multiple boosting systems that are modelled as a single deep
neural network. The architecture transforms the original multivariate time
series into multiple cascading univariate time series. Together with sparse
interactions, parameter sharing and equivariant representations, this approach
makes it possible to combat against overfitting while still achieving good
presentation power with a deep network architecture. The architecture is
evaluated in several short-term load forecasting tasks with energy data from an
office building in Finland. The proposed architecture outperforms
state-of-the-art load forecasting model in all the tasks.
- Abstract(参考訳): 本稿では,建築エネルギー負荷の短期負荷予測のための新しいディープラーニングアーキテクチャを提案する。
このアーキテクチャは、単純なベース学習システムと、単一のディープニューラルネットワークとしてモデル化された複数のブースティングシステムに基づいている。
アーキテクチャは、元の多変量時系列を多重カスケーディング単変量時系列に変換する。
スパース相互作用、パラメータ共有、同変表現と共に、このアプローチは、ディープネットワークアーキテクチャで優れたプレゼンテーションパワーを達成しつつ、過剰フィッティングと戦えるようにする。
このアーキテクチャは、フィンランドのオフィスビルのエネルギーデータを用いて、短期負荷予測タスクで評価される。
提案するアーキテクチャは,すべてのタスクにおいて最先端の負荷予測モデルを上回る。
関連論文リスト
- Partially Stochastic Infinitely Deep Bayesian Neural Networks [0.0]
無限深層ニューラルネットワークの枠組みに部分性を統合する新しいアーキテクチャ群を提案する。
私たちの新しいアーキテクチャのクラスは、トレーニングや推論時の計算効率に関する制限を改善するために設計されています。
論文 参考訳(メタデータ) (2024-02-05T20:15:19Z) - Serving Deep Learning Model in Relational Databases [72.72372281808694]
リレーショナルデータ上での深層学習(DL)モデルの実現は、様々な商業分野や科学分野において重要な要件となっている。
最先端のDL-Centricアーキテクチャは、DL計算を専用のDLフレームワークにオフロードします。
UDF-Centricアーキテクチャは、データベースシステム内の1つ以上のテンソル計算をユーザ定義関数(UDF)にカプセル化する。
potentialRelation-Centricアーキテクチャは、演算子による大規模テンソル計算を表現することを目的としている。
論文 参考訳(メタデータ) (2023-10-07T06:01:35Z) - Hysteretic Behavior Simulation Based on Pyramid Neural
Network:Principle, Network Architecture, Case Study and Explanation [0.0]
ニューラルネットワークに基づく代理モデルでは、効率と精度のバランスをとる大きな可能性を示している。
単一レベルの特徴に基づく連続的な情報フローと予測は、ネットワーク性能に悪影響を及ぼす。
ここでは重み付けされたピラミッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-29T16:42:00Z) - TMS: A Temporal Multi-scale Backbone Design for Speaker Embedding [60.292702363839716]
話者埋め込みのための現在のSOTAバックボーンネットワークは、話者表現のためのマルチブランチネットワークアーキテクチャを用いた発話からマルチスケール特徴を集約するように設計されている。
本稿では, 話者埋め込みネットワークにおいて, 計算コストの増大を伴わずに, マルチスケール分岐を効率的に設計できる効果的な時間的マルチスケール(TMS)モデルを提案する。
論文 参考訳(メタデータ) (2022-03-17T05:49:35Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Differentiable Architecture Pruning for Transfer Learning [6.935731409563879]
本研究では,与えられた大規模モデルからサブアーキテクチャを抽出するための勾配に基づくアプローチを提案する。
我々のアーキテクチャ・プルーニング・スキームは、異なるタスクを解くために再訓練を成功させることができるトランスファー可能な新しい構造を生成する。
理論的収束保証を提供し、実データ上で提案した伝達学習戦略を検証する。
論文 参考訳(メタデータ) (2021-07-07T17:44:59Z) - Automated Search for Resource-Efficient Branched Multi-Task Networks [81.48051635183916]
我々は,多タスクニューラルネットワークにおける分岐構造を自動的に定義する,微分可能なニューラルネットワーク探索に根ざした原理的アプローチを提案する。
本手法は,限られた資源予算内で高い性能の分岐構造を見いだすことができる。
論文 参考訳(メタデータ) (2020-08-24T09:49:19Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z) - ForecastNet: A Time-Variant Deep Feed-Forward Neural Network
Architecture for Multi-Step-Ahead Time-Series Forecasting [6.043572971237165]
本稿では,フィードフォワードアーキテクチャを用いて時間変動モデルを提供するForecastNetを提案する。
ForecastNetは、いくつかのデータセットで統計的およびディープラーニングベンチマークモデルを上回るパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-02-11T01:03:33Z) - Residual Attention Net for Superior Cross-Domain Time Sequence Modeling [0.0]
本稿では新しいアーキテクチャのコンセプト実証として機能し、RANはモデルにシーケンスパターンのより高レベルな理解を提供することを目的としている。
その結果,35の最先端結果が得られたが,10の結果が現在の最先端結果と一致し,さらなるモデル微調整は行われなかった。
論文 参考訳(メタデータ) (2020-01-13T06:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。