論文の概要: Utilizing Language Models for Energy Load Forecasting
- arxiv url: http://arxiv.org/abs/2310.17788v1
- Date: Thu, 26 Oct 2023 21:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 15:37:08.926455
- Title: Utilizing Language Models for Energy Load Forecasting
- Title(参考訳): エネルギー負荷予測のための言語モデルの利用
- Authors: Hao Xue and Flora D. Salim
- Abstract要約: エネルギー負荷予測に言語モデルを活用する新しい手法を提案する。
我々は、エネルギー消費データを記述文に変換するためのプロンプト技術を採用している。
その結果,エネルギー負荷予測における言語モデルの利用は,エネルギー効率の向上を約束することを示す。
- 参考スコア(独自算出の注目度): 11.670324826998968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Energy load forecasting plays a crucial role in optimizing resource
allocation and managing energy consumption in buildings and cities. In this
paper, we propose a novel approach that leverages language models for energy
load forecasting. We employ prompting techniques to convert energy consumption
data into descriptive sentences, enabling fine-tuning of language models. By
adopting an autoregressive generating approach, our proposed method enables
predictions of various horizons of future energy load consumption. Through
extensive experiments on real-world datasets, we demonstrate the effectiveness
and accuracy of our proposed method. Our results indicate that utilizing
language models for energy load forecasting holds promise for enhancing energy
efficiency and facilitating intelligent decision-making in energy systems.
- Abstract(参考訳): エネルギー負荷予測は、資源配分を最適化し、建物や都市におけるエネルギー消費を管理する上で重要な役割を果たす。
本稿では,エネルギー負荷予測のための言語モデルを活用した新しい手法を提案する。
我々は,エネルギー消費データを記述文に変換し,言語モデルの微調整を可能にするプロンプト手法を採用する。
提案手法は, 自己回帰的生成手法を採用することで, 将来のエネルギー消費の様々な地平線を予測できる。
実世界のデータセットに関する広範な実験を通じて,提案手法の有効性と精度を示す。
その結果,エネルギー負荷予測のための言語モデルの利用は,エネルギー効率の向上とエネルギーシステムのインテリジェントな意思決定の促進に期待できることがわかった。
関連論文リスト
- Empowering Distributed Solutions in Renewable Energy Systems and Grid
Optimization [3.8979646385036175]
機械学習(ML)の進歩は再生可能エネルギー源の強化とグリッド管理の改善に重要な役割を果たしている。
ビッグデータとMLをスマートグリッドに組み込むことは、エネルギー効率の向上など、いくつかのメリットを提供する。
しかし、大規模なデータボリュームの処理、サイバーセキュリティの確保、専門知識の獲得といった課題に対処する必要がある。
論文 参考訳(メタデータ) (2023-10-24T02:45:16Z) - Interpretable Deep Reinforcement Learning for Optimizing Heterogeneous
Energy Storage Systems [11.03157076666012]
エネルギー貯蔵システム(ESS)はエネルギー市場において重要な要素であり、エネルギー供給者と消費者の両方に役立っている。
エネルギー市場におけるESSの柔軟性を高めるために、異種太陽光発電(PV-ESS)を提案する。
我々は、現実のシナリオを反映して、劣化、資本、運用・保守コストを考慮した包括的コスト関数を開発する。
論文 参考訳(メタデータ) (2023-10-20T02:26:17Z) - A Human-on-the-Loop Optimization Autoformalism Approach for
Sustainability [27.70596933019959]
本稿では,大規模言語モデル(LLM)を用いたパーソナライズされたエネルギー問題に対する自然な対話的アプローチについて概説する。
我々は,LLMを最適化解決器で強化し,ユーザの仕様や好みを理解し,応答する能力を高める戦略を提唱した。
提案手法は,自然言語タスク仕様を自動で最適化インスタンスに翻訳することで,人間誘導最適化オートフォーマリズムという新しい概念を開拓する。
論文 参考訳(メタデータ) (2023-08-20T22:42:04Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - On Feature Diversity in Energy-based Models [98.78384185493624]
エネルギーベースモデル(EBM)は通常、異なる特徴の組み合わせを学習し、入力構成ごとにエネルギーマッピングを生成する内部モデルによって構成される。
EBMのほぼ正しい(PAC)理論を拡張し,EBMの性能に及ぼす冗長性低減の影響を解析した。
論文 参考訳(メタデータ) (2023-06-02T12:30:42Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Great Power, Great Responsibility: Recommendations for Reducing Energy
for Training Language Models [8.927248087602942]
一般的なNLPアプリケーションのエネルギー消費を削減できる技術について検討する。
これらの手法は、訓練言語モデルや推論に使用する際のエネルギー消費を著しく減少させる可能性がある。
論文 参考訳(メタデータ) (2022-05-19T16:03:55Z) - XGBoost energy consumption prediction based on multi-system data HVAC [0.2519906683279153]
本稿では,XGBoostを用いて大規模データセットから特徴を抽出し,複数のモデルを得るために個別に訓練し,MAEを用いてLightGBMの独立予測結果と融合する。
このモデルを自己開発型のInternet of Thingsプラットフォームに適用することに成功した。
論文 参考訳(メタデータ) (2021-05-20T18:41:17Z) - Joint Energy-based Model Training for Better Calibrated Natural Language
Understanding Models [61.768082640087]
自然言語理解タスクのための事前学習テキストエンコーダの微調整中に、共同エネルギーベースモデル(EBM)トレーニングを検討します。
実験では、EMMトレーニングはモデルが強力なベースラインに匹敵するより良いキャリブレーションに達するのに役立つことが示されています。
論文 参考訳(メタデータ) (2021-01-18T01:41:31Z) - Energy-based View of Retrosynthesis [70.66156081030766]
エネルギーモデルとしてシーケンスおよびグラフベースの手法を統一するフレームワークを提案する。
本稿では,ベイズ前方および後方予測に対して一貫した訓練を行うフレームワーク内での新しい二重変種を提案する。
このモデルは、反応型が不明なテンプレートフリーアプローチに対して、最先端の性能を9.6%向上させる。
論文 参考訳(メタデータ) (2020-07-14T18:51:06Z) - HULK: An Energy Efficiency Benchmark Platform for Responsible Natural
Language Processing [76.38975568873765]
本稿では,自然言語処理のためのマルチタスクエネルギー効率ベンチマークプラットフォームであるHULKを紹介する。
我々は、事前訓練されたモデルのエネルギー効率を時間とコストの観点から比較する。
論文 参考訳(メタデータ) (2020-02-14T01:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。