論文の概要: Limitations of machine learning for building energy prediction: ASHRAE
Great Energy Predictor III Kaggle competition error analysis
- arxiv url: http://arxiv.org/abs/2106.13475v1
- Date: Fri, 25 Jun 2021 07:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 20:39:06.291956
- Title: Limitations of machine learning for building energy prediction: ASHRAE
Great Energy Predictor III Kaggle competition error analysis
- Title(参考訳): エネルギー予測のための機械学習の限界:ASHRAE Great Energy Predictor III Kaggle 競合誤差解析
- Authors: Clayton Miller, Bianca Picchetti, Chun Fu, Jovan Pantelic
- Abstract要約: ASHRAE Great Energy Predictor III (GEPIII) Kaggleコンペティションは、史上最大の建築エネルギーメーター機械学習コンペティションである。
本稿では,コンペティション上位50の解の集合から,残差モデル誤差の様々な原因と種類を解析する。
結果は、機械学習モデルがテストデータの79.1%の許容範囲内でエラーを持っていることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning for building energy prediction has exploded in popularity in
recent years, yet understanding its limitations and potential for improvement
are lacking. The ASHRAE Great Energy Predictor III (GEPIII) Kaggle competition
was the largest building energy meter machine learning competition ever held
with 4,370 participants who submitted 39,403 predictions. The test data set
included two years of hourly electricity, hot water, chilled water, and steam
readings from 2,380 meters in 1,448 buildings at 16 locations. This paper
analyzes the various sources and types of residual model error from an
aggregation of the competition's top 50 solutions. This analysis reveals the
limitations for machine learning using the standard model inputs of historical
meter, weather, and basic building metadata. The types of error are classified
according to the amount of time errors occur in each instance, abrupt versus
gradual behavior, the magnitude of error, and whether the error existed on
single buildings or several buildings at once from a single location. The
results show machine learning models have errors within a range of
acceptability on 79.1% of the test data. Lower magnitude model errors occur in
16.1% of the test data. These discrepancies can likely be addressed through
additional training data sources or innovations in machine learning. Higher
magnitude errors occur in 4.8% of the test data and are unlikely to be
accurately predicted regardless of innovation. There is a diversity of error
behavior depending on the energy meter type (electricity prediction models have
unacceptable error in under 10% of test data, while hot water is over 60%) and
building use type (public service less than 14%, while technology/science is
just over 46%).
- Abstract(参考訳): 近年、エネルギー予測を構築するための機械学習が人気を博しているが、その限界と改善の可能性を理解していない。
ASHRAE Great Energy Predictor III (GEPIII) Kaggleコンペティションは、39,403件の予測を提出した4,370人の参加者による建築エネルギーメーター機械学習コンペティションである。
テストデータには、時間給電、2年分の給湯、冷水、および16カ所の1,448棟の建物で2,380メートルの蒸気読み取りが含まれていた。
本稿では,コンペティションのトップ50ソリューションの集約から残留モデルエラーの各種発生源と種類を分析した。
この分析は、過去のメーター、天気、基本的な建築メタデータの標準モデル入力を用いた機械学習の限界を明らかにする。
エラーの種類は、各インスタンスで発生した時間誤差の量、突然の振る舞いと漸進的な振る舞い、エラーの大きさ、エラーが1つの建物または複数の建物に一度に存在するかどうかによって分類される。
結果は、機械学習モデルがテストデータの79.1%の許容範囲内でエラーを持っていることを示している。
低等級のモデルエラーはテストデータの16.1%で発生する。
これらの相違は、機械学習における追加のトレーニングデータソースやイノベーションによって対処される可能性がある。
高次の誤差はテストデータの4.8%で発生し、イノベーションに関係なく正確に予測されることはない。
エネルギーメータータイプ(電気予測モデルはテストデータの10%未満で許容できないエラーを持ち、温水は60%以上である)と使用タイプ(公共サービスでは14%未満、技術/科学では46%以上である)によって、エラーの振る舞いは様々である。
関連論文リスト
- Physics of Language Models: Part 2.2, How to Learn From Mistakes on Grade-School Math Problems [47.753284211200665]
我々は、事前訓練段階に直接「エラー訂正」データを組み込むことの有用性を理解することに注力する。
このデータは、即座に修正された誤った解ステップで構成されている。
このタイプの事前学習データにより、言語モデルの推論精度の向上が期待できる。
論文 参考訳(メタデータ) (2024-08-29T06:49:20Z) - Common 7B Language Models Already Possess Strong Math Capabilities [61.61442513067561]
本稿では,LLaMA-2 7Bモデルと事前学習を併用したモデルが,すでに強力な数学的能力を示していることを示す。
拡張スケーリングの可能性は、公開されている数学の質問の不足によって制限されている。
論文 参考訳(メタデータ) (2024-03-07T18:00:40Z) - Balancing Computational Efficiency and Forecast Error in Machine
Learning-based Time-Series Forecasting: Insights from Live Experiments on
Meteorological Nowcasting [0.0]
本稿では,気象情報を用いた計算コストと予測誤差の関係について述べる。
5日間のライブ実験では、4000のデータソースがトレーニングのためにストリームされ、1時間あたり144モデルが参照された。
その結果, 分散ホライゾンを用いることで計算使用量を50%以上削減し, 誤差は0~15%増加した。
論文 参考訳(メタデータ) (2023-09-26T19:10:00Z) - Software Defect Prediction by Online Learning Considering Defect
Overlooking [1.655352281097533]
オンライン学習に基づく欠陥予測モデルの構築は、予測精度を向上させることができる。
新しいデータポイントを追加する際に、新しい予測モデルを継続的に再構築する。
しかし、モジュールを"非欠陥"(負の予測)として予測すると、そのようなモジュールのテストケースが少なくなる。
論文 参考訳(メタデータ) (2023-08-25T15:02:22Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Ranking-Based Physics-Informed Line Failure Detection in Power Grids [66.0797334582536]
ライン障害のリアルタイムかつ正確な検出は、極端な気象の影響を緩和し、緊急制御を活性化する最初のステップである。
電力収支方程式は、非線形性、極端な事象における発生の不確実性の増加、グリッドオブザーバビリティの欠如は、従来のデータ駆動障害検出手法の効率を損なう。
本稿では,グリッドトポロジ情報を利用した物理インフォームドライン故障検出器(FIELD)を提案する。
論文 参考訳(メタデータ) (2022-08-31T18:19:25Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Prediction of GPU Failures Under Deep Learning Workloads [12.720893017696296]
本稿では,大規模な実運用深層学習ワークロード下でのGPU故障の予測モデルについて検討した。
本稿では,並列およびカスケードモデルアンサンブル機構やスライディングトレーニング手法など,いくつかの手法を提案する。
その結果,提案手法は予測精度を46.3%から84.0%に改善した。
論文 参考訳(メタデータ) (2022-01-27T23:07:19Z) - Using Google Trends as a proxy for occupant behavior to predict building
energy consumption [0.0]
そこで本研究では,Google Trendsプラットフォーム上でのトピックの検索量を,利用者の行動と建物利用のプロキシとして活用するアプローチを提案する。
その結果、高い相関性を持つGoogle Trendsデータは、建物のサブセット全体のRMSLEエラーを、GEPIIIコンペティションの上位5チームのパフォーマンスのレベルに効果的に低減できることを示した。
論文 参考訳(メタデータ) (2021-10-31T08:05:23Z) - An Evaluation of Machine Learning and Deep Learning Models for Drought
Prediction using Weather Data [1.1977931648859175]
干ばつは深刻な自然災害であり、長い期間と幅広い影響がある。
干ばつによる損失を減らすため、干ばつ予測は、対応する干ばつ防止と防災対策の基盤となる。
気象データを用いて機械学習モデルで干ばつを正確に予測できるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-06T10:19:43Z) - TACRED Revisited: A Thorough Evaluation of the TACRED Relation
Extraction Task [80.38130122127882]
TACREDはリレーショナル抽出(RE)において最も大きく、最も広く使われているクラウドソースデータセットの1つである
パフォーマンスの天井に到達したのか、改善の余地はあるのか?
ラベルエラーは絶対F1テストエラーの8%を占めており、例の50%以上を可逆化する必要がある。
論文 参考訳(メタデータ) (2020-04-30T15:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。