論文の概要: Large Language Model-Based Interpretable Machine Learning Control in
Building Energy Systems
- arxiv url: http://arxiv.org/abs/2402.09584v1
- Date: Wed, 14 Feb 2024 21:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:54:58.727769
- Title: Large Language Model-Based Interpretable Machine Learning Control in
Building Energy Systems
- Title(参考訳): 建築エネルギーシステムにおける大規模言語モデルに基づく解釈型機械学習制御
- Authors: Liang Zhang, Zhelun Chen
- Abstract要約: 本稿では、モデルとその推論の透明性と理解を高める機械学習(ML)の分野である、解釈可能な機械学習(IML)について検討する。
共有価値の原則とLarge Language Models(LLMs)のコンテキスト内学習機能を組み合わせた革新的なフレームワークを開発する。
本稿では,仮想テストベッドにおける需要応答イベント下での予測制御に基づく事前冷却モデルの実現可能性を示すケーススタディを提案する。
- 参考スコア(独自算出の注目度): 3.580636644178055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The potential of Machine Learning Control (MLC) in HVAC systems is hindered
by its opaque nature and inference mechanisms, which is challenging for users
and modelers to fully comprehend, ultimately leading to a lack of trust in
MLC-based decision-making. To address this challenge, this paper investigates
and explores Interpretable Machine Learning (IML), a branch of Machine Learning
(ML) that enhances transparency and understanding of models and their
inferences, to improve the credibility of MLC and its industrial application in
HVAC systems. Specifically, we developed an innovative framework that combines
the principles of Shapley values and the in-context learning feature of Large
Language Models (LLMs). While the Shapley values are instrumental in dissecting
the contributions of various features in ML models, LLM provides an in-depth
understanding of rule-based parts in MLC; combining them, LLM further packages
these insights into a coherent, human-understandable narrative. The paper
presents a case study to demonstrate the feasibility of the developed IML
framework for model predictive control-based precooling under demand response
events in a virtual testbed. The results indicate that the developed framework
generates and explains the control signals in accordance with the rule-based
rationale.
- Abstract(参考訳): HVACシステムにおける機械学習制御(MLC)の可能性は、その不透明な性質と推論メカニズムによって妨げられている。
この課題に対処するために,モデルとその推論の透明性と理解を高める機械学習(ML)の分野である解釈可能な機械学習(IML)を調査し,HVACシステムにおけるLCCの信頼性と産業的応用を改善する。
具体的には、Shapley値の原理とLarge Language Models(LLMs)のコンテキスト内学習機能を組み合わせた革新的なフレームワークを開発した。
Shapleyの価値観はMLモデルにおける様々な特徴の貢献を区別する上で有効であるが、LCMはMLCにおけるルールベースの部分の深い理解を提供し、それらを組み合わせることで、これらの洞察を一貫性のある人間に理解可能な物語へとパッケージ化する。
本稿では,仮想テストベッドにおける需要応答イベント下での予測制御に基づく事前冷却モデルの実現可能性を示すケーススタディを提案する。
以上の結果から,本フレームワークはルールに基づく合理性に応じて制御信号を生成し,説明する。
関連論文リスト
- Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - User-Controlled Knowledge Fusion in Large Language Models: Balancing
Creativity and Hallucination [5.046007553593371]
大規模言語モデル(LLM)は多様な、関連性があり、創造的な応答を生成する。
LLMの想像力と事実情報への固執のバランスを取ることは重要な課題である。
本稿では,LLMの想像能力と現実情報への忠実さのバランスを調節する,革新的なユーザ制御機構を提案する。
論文 参考訳(メタデータ) (2023-07-30T06:06:35Z) - Scientific Inference With Interpretable Machine Learning: Analyzing
Models to Learn About Real-World Phenomena [0.0]
解釈可能な機械学習(IML)は、機械学習モデルの振る舞いと特性に関するものである。
我々は、関連する現象特性を把握できるように、IML手法の開発方法を示す。
論文 参考訳(メタデータ) (2022-06-11T10:13:21Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Designing Inherently Interpretable Machine Learning Models [0.0]
本質的には、MLモデルは透明性と説明可能性のために採用されるべきである。
モデルに依存しない説明性を持つブラックボックスモデルは、規制の精査の下ではより防御が難しい。
論文 参考訳(メタデータ) (2021-11-02T17:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。