論文の概要: Prompting Large Language Models for Training-Free Non-Intrusive Load Monitoring
- arxiv url: http://arxiv.org/abs/2505.06330v2
- Date: Tue, 20 May 2025 12:43:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.239822
- Title: Prompting Large Language Models for Training-Free Non-Intrusive Load Monitoring
- Title(参考訳): 学習不要な非侵入負荷モニタリングのための大規模言語モデルの提案
- Authors: Junyu Xue, Xudong Wang, Xiaoling He, Shicheng Liu, Yi Wang, Guoming Tang,
- Abstract要約: 非侵入負荷モニタリング (NILM) は、家庭の電力消費を個別の家電利用に集約することを目的としている。
本稿では,テキスト内学習による大規模言語モデルを活用した,最初のプロンプトベースのNILMフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.989610657109392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-intrusive load monitoring (NILM) aims to disaggregate aggregate household electricity consumption into individual appliance usage and thus enables more effective energy management. While deep learning has advanced NILM, it remains limited by its dependence on labeled data, restricted generalization, and lack of explainability. This paper introduces the first prompt-based NILM framework that leverages large language models (LLMs) with in-context learning. We design and evaluate prompt strategies that integrate appliance features, timestamps and contextual information, as well as representative time-series examples on widely used open datasets. With optimized prompts, LLMs achieve competitive state detection accuracy and demonstrate robust generalization without the need for fine-tuning. LLMs also enhance explainability by providing clear, human-readable explanations for their predictions. Our results show that LLMs can reduce data requirements, improve adaptability, and provide transparent energy disaggregation in NILM applications.
- Abstract(参考訳): 非侵入負荷モニタリング (NILM) は、家庭内電力消費を個別の家電利用に集約し、より効率的なエネルギー管理を可能にすることを目的としている。
ディープラーニングはNILMを進化させたが、ラベル付きデータへの依存、一般化の制限、説明可能性の欠如により、依然として制限されている。
本稿では,大規模言語モデル(LLM)とテキスト内学習を利用する,最初のプロンプトベースのNILMフレームワークを紹介する。
我々は、アプライアンス機能、タイムスタンプ、コンテキスト情報、および広く使用されているオープンデータセットの代表的な時系列例を統合するプロンプト戦略を設計し、評価する。
最適化されたプロンプトにより、LLMは競合状態検出精度を達成し、微調整を必要とせずに堅牢な一般化を実証する。
LLMはまた、その予測に対して明確で可読な説明を提供することによって説明可能性を高める。
この結果から, LLMはデータ要求を低減し, 適応性を向上し, NILMアプリケーションに透過的なエネルギー分散を実現することができることがわかった。
関連論文リスト
- Enhancing LLMs with Smart Preprocessing for EHR Analysis [3.5839042822277585]
大規模言語モデル (LLM) は自然言語処理において顕著な熟練性を示している。
本稿では,厳密なプライバシ要件を持つ環境におけるローカルデプロイメントに最適化されたコンパクトなLLMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T22:06:55Z) - Benchmarking Active Learning for NILM [2.896640219222859]
非侵入負荷モニタリング(NILM)は、家電固有の用途に家庭の電力消費を分散させることに焦点を当てている。
多くの高度なNILM法は、通常大量のラベル付きアプライアンスデータを必要とするニューラルネットワークに基づいている。
限られた住宅に家電モニターを選択的に設置するための能動的学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-24T12:22:59Z) - Federated Sequence-to-Sequence Learning for Load Disaggregation from Unbalanced Low-Resolution Smart Meter Data [5.460776507522276]
非侵入負荷モニタリング(NILM)は、エネルギー意識を高め、エネルギープログラム設計のための貴重な洞察を提供する。
既存のNILM法は、しばしば高サンプリング複雑な信号データを取得するための特殊な装置に依存している。
そこで本研究では,12種類の機器の負荷分散を実現するために,容易にアクセス可能な気象データを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:04:49Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Small Models are LLM Knowledge Triggers on Medical Tabular Prediction [39.78560996984352]
小モデルを用いたシナジー学習による汎用的な自己プロンプト手法SERSALを提案する。
本研究は,SERSALが言語的プロンプト法に比べて大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-03-03T17:35:52Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。