論文の概要: Lightweight and Scalable Transfer Learning Framework for Load Disaggregation
- arxiv url: http://arxiv.org/abs/2603.04998v1
- Date: Thu, 05 Mar 2026 09:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.171435
- Title: Lightweight and Scalable Transfer Learning Framework for Load Disaggregation
- Title(参考訳): 負荷分散のための軽量かつスケーラブルなトランスファー学習フレームワーク
- Authors: L. E. Garcia-Marrero, G. Petrone, E. Monmasson,
- Abstract要約: RefQueryは、スケーラブルなマルチアプライアンスでマルチタスクのNILMフレームワークで、コンパクトアプライアンス指紋の分解を条件にしている。
3つの公開データセットの実験では、RefQueryはシングルアプライアンスとマルチアプライアンスベースラインに対して、強い精度と効率のトレードオフを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-Intrusive Load Monitoring (NILM) aims to estimate appliance-level consumption from aggregate electrical signals recorded at a single measurement point. In recent years, the field has increasingly adopted deep learning approaches; however, cross-domain generalization remains a persistent challenge due to variations in appliance characteristics, usage patterns, and background loads across homes. Transfer learning provides a practical paradigm to adapt models with limited target data. However, existing methods often assume a fixed appliance set, lack flexibility for evolving real-world deployments, remain unsuitable for edge devices, or scale poorly for real-time operation. This paper proposes RefQuery, a scalable multi-appliance, multi-task NILM framework that conditions disaggregation on compact appliance fingerprints, allowing one shared model to serve many appliances without a fixed output set. RefQuery keeps a pretrained disaggregation network fully frozen and adapts to a target home by learning only a per-appliance embedding during a lightweight backpropagation stage. Experiments on three public datasets demonstrate that RefQuery delivers a strong accuracy-efficiency trade-off against single-appliance and multi-appliance baselines, including modern Transformer-based methods. These results support RefQuery as a practical path toward scalable, real-time NILM on resource-constrained edge devices.
- Abstract(参考訳): 非侵入負荷モニタリング(Non-Intrusive Load Monitoring, NILM)は、単一の測定ポイントで記録された集積電気信号から、アプライアンスレベルの消費を推定することを目的としている。
近年、分野は深層学習のアプローチを採用するようになっているが、家電の特性、使用パターン、家庭全体の背景負荷の変動などにより、ドメイン間の一般化は永続的な課題である。
トランスファーラーニングは、限られたターゲットデータでモデルを適応するための実践的なパラダイムを提供する。
しかし、既存の手法では、固定されたアプライアンスセットを前提としており、現実世界のデプロイメントの柔軟性に欠ける、エッジデバイスには適さない、あるいはリアルタイム操作に不適である、といった場合が多い。
本稿では,コンパクトアプライアンス指紋の分解を条件としたスケーラブルなマルチアプライアンス・マルチタスクNILMフレームワークであるRefQueryを提案する。
RefQueryは、トレーニング済みの分散ネットワークを完全に凍結し、軽量なバックプロパゲーションステージにおいて、アプライアンス毎の埋め込みのみを学ぶことによって、ターゲットホームに適応する。
3つの公開データセットの実験では、現代的なTransformerベースのメソッドを含む、シングルアプライアンスとマルチアプライアンスベースラインに対して、RefQueryが強力な精度と効率のトレードオフを提供することを示した。
これらの結果は、リソース制約のあるエッジデバイス上での、スケーラブルでリアルタイムなNILMへの実践的なパスとしてRefQueryをサポートする。
関連論文リスト
- Fusion-ResNet: A Lightweight multi-label NILM Model Using PCA-ICA Feature Fusion [0.0]
非侵入負荷監視(NILM)は、家庭の総消費電力を個々の家電の消費に分解するためにデータ駆動アルゴリズムを使用する。
本研究では、高周波ラベル付きデータ、特徴抽出方法、軽量ニューラルネットワークからなるNILM分類タスクのエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-15T10:10:46Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Prompting Large Language Models for Training-Free Non-Intrusive Load Monitoring [12.989610657109392]
非侵入的負荷モニタリングは、総消費電力を個別の機器使用量に分解することを目的としている。
深層学習はNILMを進歩させたが、ラベル付きデータへの依存、一般化の制限、説明可能性の欠如によって制限されている。
本稿では,テキスト内学習による大規模言語モデルを活用した,最初のプロンプトベースのNILMフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-09T15:35:11Z) - SacFL: Self-Adaptive Federated Continual Learning for Resource-Constrained End Devices [38.27552394580526]
継続的変更やデータドリフトを特徴とするデータの動的性質は、デバイス上での機械学習モデルに重大な課題を提起する。
継続的学習に対する従来の集中型アプローチは、プライバシやデータボリュームの懸念から、エンドデバイスには適さない。
FCLは有望なソリューションとして登場し、ユーザデータをローカルに保存し、コラボレーティブアップデートによるモデル拡張を行う。
論文 参考訳(メタデータ) (2025-05-01T07:26:35Z) - Dita: Scaling Diffusion Transformer for Generalist Vision-Language-Action Policy [73.75271615101754]
本稿では,Transformerアーキテクチャを活用した拡張性のあるフレームワークであるDitaについて紹介する。
Ditaはコンテキスト内コンディショニング(context conditioning)を採用しており、歴史的観察から生の視覚トークンと識別されたアクションをきめ細やかなアライメントを可能にする。
Ditaは、さまざまなカメラパースペクティブ、観察シーン、タスク、アクションスペースの横断的なデータセットを効果的に統合する。
論文 参考訳(メタデータ) (2025-03-25T15:19:56Z) - Unlocking Tuning-Free Few-Shot Adaptability in Visual Foundation Models by Recycling Pre-Tuned LoRAs [76.40876036912537]
大規模言語モデル(LLM)は、微調整を必要とせず、強力な少数ショット適応性を示す。
現在のVisual Foundation Models (VFM) は十分なチューニングデータを持つ明示的な微調整を必要とする。
そこで我々は, メタ学習目的の多様なLoRAからメタLoRAを蒸留するフレームワークであるLoRA Recycleを提案する。
論文 参考訳(メタデータ) (2024-12-03T07:25:30Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - MATNilm: Multi-appliance-task Non-intrusive Load Monitoring with Limited
Labeled Data [4.460954839118025]
既存のアプローチは主に、各アプライアンス用の個別モデルの開発に重点を置いている。
本稿では,トレーニング効率のよいサンプル拡張方式を用いたマルチアプライアンス・タスク・フレームワークを提案する。
相対誤差は平均で50%以上削減できる。
論文 参考訳(メタデータ) (2023-07-27T11:14:11Z) - Learning Task-Aware Energy Disaggregation: a Federated Approach [1.52292571922932]
非侵入負荷監視(NILM)は、集約されたメーター測定に基づいて、個々のデバイスの消費電力プロファイルを見つけることを目的としている。
しかし、そのような住宅負荷データセットの収集には、膨大な努力と顧客による計測データの共有の承認が必要である。
NILMタスクのための分散型・タスク適応型学習手法を提案し,タスク固有のモデルを総合的に学習するためのネスト型メタ学習とフェデレーション型学習ステップを設計する。
論文 参考訳(メタデータ) (2022-04-14T05:53:41Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。