論文の概要: CaberNet: Causal Representation Learning for Cross-Domain HVAC Energy Prediction
- arxiv url: http://arxiv.org/abs/2511.06634v1
- Date: Mon, 10 Nov 2025 02:21:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.035687
- Title: CaberNet: Causal Representation Learning for Cross-Domain HVAC Energy Prediction
- Title(参考訳): CaberNet: クロスドメインなHVACエネルギー予測のための因果表現学習
- Authors: Kaiyuan Zhai, Jiacheng Cui, Zhehao Zhang, Junyu Xue, Yang Deng, Kui Wu, Guoming Tang,
- Abstract要約: クロスドメインなHVACエネルギー予測は、スケーラブルな建築エネルギー管理に不可欠である。
本稿では,堅牢なクロスドメイン予測のための不変表現を学習する因果的・解釈可能なディープシーケンスモデルであるCaberNetを提案する。
気候の異なる3つの都市にある3つの建物から収集した実世界のデータセットをCaberNetで評価した。
- 参考スコア(独自算出の注目度): 22.559091085336018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain HVAC energy prediction is essential for scalable building energy management, particularly because collecting extensive labeled data for every new building is both costly and impractical. Yet, this task remains highly challenging due to the scarcity and heterogeneity of data across different buildings, climate zones, and seasonal patterns. In particular, buildings situated in distinct climatic regions introduce variability that often leads existing methods to overfit to spurious correlations, rely heavily on expert intervention, or compromise on data diversity. To address these limitations, we propose CaberNet, a causal and interpretable deep sequence model that learns invariant (Markov blanket) representations for robust cross-domain prediction. In a purely data-driven fashion and without requiring any prior knowledge, CaberNet integrates i) a global feature gate trained with a self-supervised Bernoulli regularization to distinguish superior causal features from inferior ones, and ii) a domain-wise training scheme that balances domain contributions, minimizes cross-domain loss variance, and promotes latent factor independence. We evaluate CaberNet on real-world datasets collected from three buildings located in three climatically diverse cities, and it consistently outperforms all baselines, achieving a 22.9\% reduction in normalized mean squared error (NMSE) compared to the best benchmark. Our code is available at https://github.com/rickzky1001/CaberNet-CRL.
- Abstract(参考訳): クロスドメインなHVACエネルギー予測は、スケーラブルな建築エネルギー管理には不可欠である。
しかし、異なる建物、気候帯、季節パターンにまたがるデータの不足と不均一性のため、この課題は依然として非常に困難である。
特に、異なる気候領域にある建物は、しばしば既存の手法を過度な相関を刺激したり、専門家の介入に大きく依存したり、データの多様性を妥協させたりするために、多様性を導入している。
これらの制約に対処するために,ロバストなクロスドメイン予測のための不変(マルコフ毛布)表現を学習する因果的・解釈可能なディープシーケンスモデルであるCaberNetを提案する。
純粋にデータ駆動型であり、事前の知識を必要としないCaberNetは統合されている
一 優劣の特徴と劣悪な特徴とを区別するために、自己監督ベルヌーイ正規化で訓練されたグローバル特徴門
二 ドメインのコントリビューションのバランスをとり、ドメイン間の損失分散を最小化し、潜伏因子の独立を促進するドメインワイドトレーニングスキーム。
気候的に多様である3つの都市にある3つの建物から収集された実世界のデータセットをCaberNetで評価し、すべてのベースラインを一貫して上回り、標準化された平均二乗誤差(NMSE)の22.9倍の削減を実現した。
私たちのコードはhttps://github.com/rickzky1001/CaberNet-CRLで利用可能です。
関連論文リスト
- Widening the Network Mitigates the Impact of Data Heterogeneity on FedAvg [6.185573921868495]
フェデレートラーニング(FL)により、分散クライアントは、ローカルデータを共有せずに、協調的にモデルをトレーニングできる。
ニューラルネットワークの幅が大きくなると、データの不均一性の影響は減少し、幅が無限に近づくと最終的に消滅する。
無限幅系では、FedAvgのグローバルモデルと局所モデルの両方が線形モデルとして振る舞うことがさらに証明され、FedAvgはGD反復数と同じ数の集中学習と同じ一般化性能を達成する。
論文 参考訳(メタデータ) (2025-08-18T02:22:55Z) - HSTFL: A Heterogeneous Federated Learning Framework for Misaligned Spatiotemporal Forecasting [6.00534246138727]
異種時空間学習(HSTFL)フレームワークを提案し、複数のクライアントが異なるドメインからの時系列データを活用できるようにする。
我々は,HSTFLが推論攻撃に効果的に抵抗するだけでなく,様々なベースラインに対して顕著な改善をもたらすことを示した。
論文 参考訳(メタデータ) (2024-09-27T06:51:11Z) - OrCo: Towards Better Generalization via Orthogonality and Contrast for Few-Shot Class-Incremental Learning [57.43911113915546]
FSCIL(Few-Shot Class-Incremental Learning)は、問題空間を限られたデータで拡張するパラダイムを導入する。
FSCILの手法は、データが漸進的に到着するにつれて、破滅的な忘れ込みの課題に直面している。
表現空間における特徴の直交性と対照的な学習という2つの基本原理に基づいて構築されたOrCoフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T13:30:48Z) - Cross-City Matters: A Multimodal Remote Sensing Benchmark Dataset for
Cross-City Semantic Segmentation using High-Resolution Domain Adaptation
Networks [82.82866901799565]
我々は,都市間セマンティックセマンティックセグメンテーションタスクの研究を目的とした,新しいマルチモーダルリモートセンシングベンチマークデータセット(ハイパースペクトル,マルチスペクトル,SARを含む)を構築した。
単一都市に留まらず,多都市環境からAIモデルの一般化能力を促進するため,高解像度なドメイン適応ネットワークであるHighDANを提案する。
高DANは, 並列高分解能融合方式で, 都市景観の空間的トポロジカルな構造を良好に維持することができる。
論文 参考訳(メタデータ) (2023-09-26T23:55:39Z) - SARN: Structurally-Aware Recurrent Network for Spatio-Temporal Disaggregation [8.636014676778682]
オープンデータは、通常プライバシーポリシーに従うために、しばしば空間的に集約される。しかし、粗い、異質な集約は、下流のAI/MLシステムに対する一貫性のある学習と統合を複雑にする。
本稿では,空間的注意層をGRU(Gated Recurrent Unit)モデルに統合したSARN(Structurely-Aware Recurrent Network)を提案する。
履歴学習データに制限のあるシナリオでは、ある都市変数に事前学習したモデルを、数百のサンプルのみを用いて、他の都市変数に対して微調整できることを示す。
論文 参考訳(メタデータ) (2023-06-09T21:01:29Z) - Location-aware Adaptive Normalization: A Deep Learning Approach For
Wildfire Danger Forecasting [17.25189382307337]
本稿では、位置認識型適応正規化層(LOAN)を備えた2D/3D二分岐畳み込みニューラルネットワーク(CNN)を提案する。
LOANをビルディングブロックとして使用することにより、地理的な位置を条件に動的特徴を変調することができる。
その結果,位置対応型特徴正規化は動的変数と地理的位置の関係を学習する上で有望な手法であることが示唆された。
論文 参考訳(メタデータ) (2022-12-16T00:32:38Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。