論文の概要: Large Language Model-Based Interpretable Machine Learning Control in
Building Energy Systems
- arxiv url: http://arxiv.org/abs/2402.09584v1
- Date: Wed, 14 Feb 2024 21:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:54:58.727769
- Title: Large Language Model-Based Interpretable Machine Learning Control in
Building Energy Systems
- Title(参考訳): 建築エネルギーシステムにおける大規模言語モデルに基づく解釈型機械学習制御
- Authors: Liang Zhang, Zhelun Chen
- Abstract要約: 本稿では、モデルとその推論の透明性と理解を高める機械学習(ML)の分野である、解釈可能な機械学習(IML)について検討する。
共有価値の原則とLarge Language Models(LLMs)のコンテキスト内学習機能を組み合わせた革新的なフレームワークを開発する。
本稿では,仮想テストベッドにおける需要応答イベント下での予測制御に基づく事前冷却モデルの実現可能性を示すケーススタディを提案する。
- 参考スコア(独自算出の注目度): 3.580636644178055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The potential of Machine Learning Control (MLC) in HVAC systems is hindered
by its opaque nature and inference mechanisms, which is challenging for users
and modelers to fully comprehend, ultimately leading to a lack of trust in
MLC-based decision-making. To address this challenge, this paper investigates
and explores Interpretable Machine Learning (IML), a branch of Machine Learning
(ML) that enhances transparency and understanding of models and their
inferences, to improve the credibility of MLC and its industrial application in
HVAC systems. Specifically, we developed an innovative framework that combines
the principles of Shapley values and the in-context learning feature of Large
Language Models (LLMs). While the Shapley values are instrumental in dissecting
the contributions of various features in ML models, LLM provides an in-depth
understanding of rule-based parts in MLC; combining them, LLM further packages
these insights into a coherent, human-understandable narrative. The paper
presents a case study to demonstrate the feasibility of the developed IML
framework for model predictive control-based precooling under demand response
events in a virtual testbed. The results indicate that the developed framework
generates and explains the control signals in accordance with the rule-based
rationale.
- Abstract(参考訳): HVACシステムにおける機械学習制御(MLC)の可能性は、その不透明な性質と推論メカニズムによって妨げられている。
この課題に対処するために,モデルとその推論の透明性と理解を高める機械学習(ML)の分野である解釈可能な機械学習(IML)を調査し,HVACシステムにおけるLCCの信頼性と産業的応用を改善する。
具体的には、Shapley値の原理とLarge Language Models(LLMs)のコンテキスト内学習機能を組み合わせた革新的なフレームワークを開発した。
Shapleyの価値観はMLモデルにおける様々な特徴の貢献を区別する上で有効であるが、LCMはMLCにおけるルールベースの部分の深い理解を提供し、それらを組み合わせることで、これらの洞察を一貫性のある人間に理解可能な物語へとパッケージ化する。
本稿では,仮想テストベッドにおける需要応答イベント下での予測制御に基づく事前冷却モデルの実現可能性を示すケーススタディを提案する。
以上の結果から,本フレームワークはルールに基づく合理性に応じて制御信号を生成し,説明する。
関連論文リスト
- Using Machine Learning to Discover Parsimonious and Physically-Interpretable Representations of Catchment-Scale Rainfall-Runoff Dynamics [1.1510009152620668]
機械学習の未調査の側面は、最小限の最適表現を開発する方法である。
我々の見解では、MLに基づくモデリングは、設計によって根本的に解釈可能な計算単位をベースとすべきである。
本研究では,比較的類似した分散状態ネットワークを用いて,物理的解釈可能性と予測性能を両立させることができることを示す。
論文 参考訳(メタデータ) (2024-12-06T08:30:01Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - TokenSHAP: Interpreting Large Language Models with Monte Carlo Shapley Value Estimation [0.0]
TokenSHAPは、大規模言語モデルを解釈する新しい方法である。
これは、協調ゲーム理論から自然言語処理へのシェープリー値の適応である。
トークンの重要性を解釈可能で定量的に測定する。
論文 参考訳(メタデータ) (2024-07-14T08:07:50Z) - Unveiling LLM Mechanisms Through Neural ODEs and Control Theory [3.4039202831583903]
本研究では,Large Language Models(LLMs)における入力と出力の複雑な関係を明らかにするために,ニューラル正規微分方程式を用いる。
ニューラルネットワークは、LLM内のデータの継続的な進化を捉えるダイナミックモデルを提供することによって、この研究において重要な役割を担っている。
堅牢な制御メカニズムは、モデルのアウトプットを戦略的に調整するために適用され、高い品質と信頼性を維持するだけでなく、特定のパフォーマンス基準に従うことを保証する。
論文 参考訳(メタデータ) (2024-06-23T22:56:34Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Towards Modeling Learner Performance with Large Language Models [7.002923425715133]
本稿では,LLMのパターン認識とシーケンスモデリング機能が,知識追跡の領域にまで拡張できるかどうかを検討する。
ゼロショットプロンプト(ゼロショットプロンプト)とモデル微調整(モデル微調整)の2つの手法と,既存のLLM以外の知識追跡手法を比較した。
LLMベースのアプローチは最先端のパフォーマンスを達成しないが、微調整のLLMは素早いベースラインモデルの性能を上回り、標準的なベイズ的知識追跡手法と同等に機能する。
論文 参考訳(メタデータ) (2024-02-29T14:06:34Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Scientific Inference With Interpretable Machine Learning: Analyzing Models to Learn About Real-World Phenomena [4.312340306206884]
解釈可能な機械学習は、モデルを論理的に分析して解釈を導出することで解を提供する。
現在のIML研究は、科学的推論にMLモデルを活用するのではなく、MLモデルの監査に重点を置いている。
本稿では、モデルだけでなく、その表現する現象を照らし出すIMLメソッドを定式化した「プロパティ記述子」を設計するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T10:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。