論文の概要: Large Language Model Interface for Home Energy Management Systems
- arxiv url: http://arxiv.org/abs/2501.07919v1
- Date: Tue, 14 Jan 2025 08:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:25:26.139898
- Title: Large Language Model Interface for Home Energy Management Systems
- Title(参考訳): 家庭エネルギー管理システムのための大規模言語モデルインタフェース
- Authors: François Michelon, Yihong Zhou, Thomas Morstyn,
- Abstract要約: 家庭用エネルギー管理システム(HMS)は、電力価格などの電力系統信号に基づいて家庭の電力使用量を調整する。
HEMSは、エネルギー資源、住宅、およびユーザニーズの特徴を反映した、よく整形されたパラメータ化を必要とする。
本稿では,ユーザと対話して,不適切な回答の理解とパラメータ化を行うインタフェースを提案し,その上で,HEMSを実装するためのパラメータを適切に出力する。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License:
- Abstract: Home Energy Management Systems (HEMSs) help households tailor their electricity usage based on power system signals such as energy prices. This technology helps to reduce energy bills and offers greater demand-side flexibility that supports the power system stability. However, residents who lack a technical background may find it difficult to use HEMSs effectively, because HEMSs require well-formatted parameterization that reflects the characteristics of the energy resources, houses, and users' needs. Recently, Large-Language Models (LLMs) have demonstrated an outstanding ability in language understanding. Motivated by this, we propose an LLM-based interface that interacts with users to understand and parameterize their ``badly-formatted answers'', and then outputs well-formatted parameters to implement an HEMS. We further use Reason and Act method (ReAct) and few-shot prompting to enhance the LLM performance. Evaluating the interface performance requires multiple user--LLM interactions. To avoid the efforts in finding volunteer users and reduce the evaluation time, we additionally propose a method that uses another LLM to simulate users with varying expertise, ranging from knowledgeable to non-technical. By comprehensive evaluation, the proposed LLM-based HEMS interface achieves an average parameter retrieval accuracy of 88\%, outperforming benchmark models without ReAct and/or few-shot prompting.
- Abstract(参考訳): 家庭用エネルギー管理システム(HMS)は、電力価格などの電力系統信号に基づいて家庭の電力使用量を調整する。
この技術はエネルギー料金の削減に役立ち、電力系統の安定性をサポートする需要側の柔軟性を高める。
しかし, HEMSはエネルギー資源, 住宅, 利用者のニーズの特性を反映したパラメータ化が要求されるため, 技術的背景を持たない住民は, HEMSを効果的に利用することは困難である。
近年,Large-Language Models (LLM) は言語理解において優れた能力を発揮している。
そこで本研究では,ユーザと対話して ``badly-formatted answer'' を理解し,パラメータ化する LLM ベースのインタフェースを提案する。
我々はさらに、LLM性能を高めるために、Reason and Act法(ReAct)と数発のプロンプトを使用する。
インターフェースのパフォーマンスを評価するには、複数のユーザ--LLMインタラクションが必要である。
また,ボランティア利用者の発見や評価時間を短縮するために,知識から非技術まで,さまざまな専門知識を持つユーザを模擬する手法を提案する。
総合評価により,提案したLLMベースのHEMSインタフェースは,平均パラメータ検索精度88\%を実現し,ReActや数発のプロンプトを伴わないベンチマークモデルよりも優れていた。
関連論文リスト
- DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Advancing Generative Artificial Intelligence and Large Language Models for Demand Side Management with Internet of Electric Vehicles [52.43886862287498]
本稿では,大規模言語モデル(LLM)のエネルギー管理への統合について検討する。
本稿では、自動問題定式化、コード生成、カスタマイズ最適化のために、LLMを検索拡張生成で強化する革新的なソリューションを提案する。
本稿では,電気自動車の充電スケジューリングと最適化における提案手法の有効性を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2025-01-26T14:31:03Z) - Investigating Energy Efficiency and Performance Trade-offs in LLM Inference Across Tasks and DVFS Settings [1.5749416770494706]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクにおいて大幅に改善されている。
LLMはリソース集約型であり、トレーニングと推論の両方に広範な計算資源を必要とする。
導入が加速するにつれて、LLMの持続性は重要な問題となっている。
論文 参考訳(メタデータ) (2025-01-14T16:02:33Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - DynamoLLM: Designing LLM Inference Clusters for Performance and Energy Efficiency [7.073435885680335]
そこで我々はDynamoLLMを提案する。DynamoLLMは、生成型大規模言語モデルのための最初のエネルギー管理フレームワークである。
サービスレベルでは、DynamoLLMは53%のエネルギーと38%の運転二酸化炭素を節約し、顧客へのコストを61%削減する。
論文 参考訳(メタデータ) (2024-08-01T17:40:45Z) - Hybrid Heterogeneous Clusters Can Lower the Energy Consumption of LLM Inference Workloads [0.2389598109913753]
大規模言語モデル(LLM)の訓練と使用には大量のエネルギーが必要である。
本稿では, LLM を運用するデータセンターにおけるエネルギー消費削減の課題に対処する。
本稿では,コストベースのスケジューリングフレームワークを用いて,ハードウェアアクセラレータ間でタスクを動的に割り当てるハイブリッドデータセンターモデルを提案する。
論文 参考訳(メタデータ) (2024-04-25T11:24:08Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - A Human-on-the-Loop Optimization Autoformalism Approach for
Sustainability [27.70596933019959]
本稿では,大規模言語モデル(LLM)を用いたパーソナライズされたエネルギー問題に対する自然な対話的アプローチについて概説する。
我々は,LLMを最適化解決器で強化し,ユーザの仕様や好みを理解し,応答する能力を高める戦略を提唱した。
提案手法は,自然言語タスク仕様を自動で最適化インスタンスに翻訳することで,人間誘導最適化オートフォーマリズムという新しい概念を開拓する。
論文 参考訳(メタデータ) (2023-08-20T22:42:04Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Adaptive Energy Management for Self-Sustainable Wearables in Mobile
Health [21.97214707198675]
ウェアラブルデバイスの小さなフォームファクタは、バッテリーのサイズと寿命を制限します。
ウェアラブル機器の持続可能な運用に有効な方法として、エネルギー収穫が出現している。
本稿では, 蓄電池エネルギーを補充し, ユーザによる手動充電を減らすことで, 自己維持可能なウェアラブルを目標とする適応型エネルギー管理の新たな課題について検討する。
論文 参考訳(メタデータ) (2022-01-16T23:49:20Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。