論文の概要: Learning and Generating Diverse Residential Load Patterns Using GAN with Weakly-Supervised Training and Weight Selection
- arxiv url: http://arxiv.org/abs/2504.14300v2
- Date: Fri, 25 Apr 2025 05:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.688876
- Title: Learning and Generating Diverse Residential Load Patterns Using GAN with Weakly-Supervised Training and Weight Selection
- Title(参考訳): 軽量化学習と重み選択によるGANを用いた各種住宅負荷パターンの学習と生成
- Authors: Xinyu Liang, Hao Wang,
- Abstract要約: 本稿では,RLP-GAN(Generative Adversarial Network based Synthetic Residential Load Pattern)の生成モデルを提案する。
417世帯の実世界データを用いて, RLP-GANの有効性を検証するための総合評価手法を開発した。
我々は,RLP-GAN生成した合成データセットを公開し,100万の合成住宅負荷パターンプロファイルを合成した。
- 参考スコア(独自算出の注目度): 7.183964892282175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The scarcity of high-quality residential load data can pose obstacles for decarbonizing the residential sector as well as effective grid planning and operation. The above challenges have motivated research into generating synthetic load data, but existing methods faced limitations in terms of scalability, diversity, and similarity. This paper proposes a Generative Adversarial Network-based Synthetic Residential Load Pattern (RLP-GAN) generation model, a novel weakly-supervised GAN framework, leveraging an over-complete autoencoder to capture dependencies within complex and diverse load patterns and learn household-level data distribution at scale. We incorporate a model weight selection method to address the mode collapse problem and generate load patterns with high diversity. We develop a holistic evaluation method to validate the effectiveness of RLP-GAN using real-world data of 417 households. The results demonstrate that RLP-GAN outperforms state-of-the-art models in capturing temporal dependencies and generating load patterns with higher similarity to real data. Furthermore, we have publicly released the RLP-GAN generated synthetic dataset, which comprises one million synthetic residential load pattern profiles.
- Abstract(参考訳): 高品質な住宅負荷データの不足は、効率的なグリッド計画と運用だけでなく、住宅セクターの脱炭の障害となる可能性がある。
上記の課題は、合成負荷データの生成に関する研究を動機付けてきたが、既存の手法ではスケーラビリティ、多様性、類似性の限界に直面していた。
本稿では, 複雑で多様な負荷パターンの依存関係を捕捉し, 大規模に家庭レベルのデータ分布を学習するために, オーバーコンプリートなオートエンコーダを活用する, 新たなGANフレームワークであるRLP-GAN(Generative Adversarial Network)の生成モデルを提案する。
モード崩壊問題に対処するモデル重み選択法を導入し,高多様性の負荷パターンを生成する。
417世帯の実世界データを用いて, RLP-GANの有効性を評価するための総合評価手法を開発した。
その結果, RLP-GANは時間的依存を捉え, 実データに近い負荷パターンを生成する上で, 最先端モデルよりも優れていた。
さらに,RLP-GAN生成した合成データセットを公開し,100万の合成住宅負荷パターンプロファイルを合成した。
関連論文リスト
- Learning from Reward-Free Offline Data: A Case for Planning with Latent Dynamics Models [31.509112804985133]
強化学習(Reinforcement Learning, RL)は、試行錯誤と最適制御を通じてポリシーを学習し、学習または既知の力学モデルを用いてアクションを計画する。
異なる品質のデータセットを用いて、異なるRLおよび制御に基づく手法の性能を系統的に解析する。
モデルベースプランニングは,新しい環境レイアウト,トラジェクトリー縫合,データ効率などへの一般化に優れる。
論文 参考訳(メタデータ) (2025-02-20T18:39:41Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - Enhancing Few-Shot Learning with Integrated Data and GAN Model Approaches [35.431340001608476]
本稿では,データ拡張とモデルファインチューニングを融合することで,少数ショット学習を向上するための革新的なアプローチを提案する。
薬物発見、ターゲット認識、悪意のあるトラフィック検出などの分野で、小さなサンプルデータによって引き起こされる課題に対処することを目的としている。
その結果,本研究で開発されたMhERGANアルゴリズムは,数発の学習に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-11-25T16:51:11Z) - Synthetic Data Generation for Residential Load Patterns via Recurrent GAN and Ensemble Method [12.161170324762645]
我々は,高忠実性合成住宅負荷データを生成するために,ERGAN(Ensemble Recurrent Generative Adversarial Network)フレームワークを開発した。
開発したERGANは, 様々な家庭で多様な負荷パターンを捕捉し, 生成した合成データの現実性と多様性を向上させる。
論文 参考訳(メタデータ) (2024-10-20T12:33:38Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Recurrent neural networks and transfer learning for elasto-plasticity in
woven composites [0.0]
本稿では, 織物のメソスケールシミュレーションの代用として, リカレントニューラルネットワーク(RNN)モデルを提案する。
平均場モデルは、弾塑性挙動を表す包括的データセットを生成する。
シミュレーションでは、任意の6次元ひずみヒストリーを用いて、ランダムウォーキング時の応力を原課題として、循環荷重条件を目標課題として予測する。
論文 参考訳(メタデータ) (2023-11-22T14:47:54Z) - RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment [32.752633250862694]
生成基礎モデルは、広範囲の教師なしのトレーニングデータから生じる暗黙のバイアスに影響を受けやすい。
我々は、生成モデルを効果的に整合させるために設計された新しいフレームワーク、Reward rAnked FineTuningを紹介する。
論文 参考訳(メタデータ) (2023-04-13T18:22:40Z) - Style-Hallucinated Dual Consistency Learning for Domain Generalized
Semantic Segmentation [117.3856882511919]
本稿では、ドメインシフトを処理するためのStyle-HAllucinated Dual consistEncy Learning(SHADE)フレームワークを提案する。
SHADEは3つの実世界のデータセットの平均mIoUに対して5.07%と8.35%の精度で改善し、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-04-06T02:49:06Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - HGAN: Hybrid Generative Adversarial Network [25.940501417539416]
本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
論文 参考訳(メタデータ) (2021-02-07T03:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。