論文の概要: Revealing the empirical flexibility of gas units through deep clustering
- arxiv url: http://arxiv.org/abs/2504.16943v2
- Date: Thu, 04 Sep 2025 14:06:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 14:03:58.715312
- Title: Revealing the empirical flexibility of gas units through deep clustering
- Title(参考訳): ディープクラスタリングによるガス単位の実験的柔軟性の解明
- Authors: Chiara Fusar Bassini, Alice Lixuan Xu, Jorge Sánchez Canales, Lion Hirth, Lynn H. Kaack,
- Abstract要約: 我々は、その発電からガスユニットの実証的な柔軟性を学び、現実世界の限界が、同様の技術的特性を持つユニット間でどのように違いをもたらすかを明らかにした。
我々の教師なしアプローチは、ピークユニットの2つのクラスタ(高い柔軟性)と非ピークユニットの2つのクラスタ(低い柔軟性)を識別する。
主に産業や自治体が所有する非話者は、低い残量と負の価格に対する反応が限られている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The flexibility of a power generation unit determines how quickly and often it can ramp up or down. In energy models, it depends on assumptions on the technical characteristics of the unit, such as its installed capacity or turbine technology. In this paper, we learn the empirical flexibility of gas units from their electricity generation, revealing how real-world limitations can lead to substantial differences between units with similar technical characteristics. Using a novel deep clustering approach, we transform 5 years (2019-2023) of unit-level hourly generation data for 49 German units from 100 MWp of installed capacity into low-dimensional embeddings. Our unsupervised approach identifies two clusters of peaker units (high flexibility) and two clusters of non-peaker units (low flexibility). The estimated ramp rates of non-peakers, which constitute half of the sample, display a low empirical flexibility, comparable to coal units. Non-peakers, predominantly owned by industry and municipal utilities, show limited response to low residual load and negative prices, generating on average 1.3 GWh during those hours. As the transition to renewables increases market variability, regulatory changes will be needed to unlock this flexibility potential.
- Abstract(参考訳): 発電ユニットの柔軟性は、どれだけの速さと頻度で昇降できるかを決定する。
エネルギーモデルでは、設置容量やタービン技術など、ユニットの技術的特性の仮定に依存する。
本稿では, ガスユニットの電力発生特性から, 実世界の限界が, 同様の技術特性を持つユニット間での実質的な差異をいかに生かし得るかを明らかにする。
新たな深層クラスタリング手法を用いて,49単位の単位レベルの時間生成データを,100MWpの設置容量から低次元の埋め込みに変換する。
我々の教師なしアプローチは、ピークユニットの2つのクラスタ(高い柔軟性)と非ピークユニットの2つのクラスタ(低い柔軟性)を識別する。
サンプルの半分を占める非話者のランプレートは、石炭単位に匹敵する低い経験的柔軟性を示す。
産業や自治体が主に所有する非話者は、低残負荷と負の価格に限られた反応を示し、その時間に平均1.3GWhで発生する。
再生可能エネルギーへの転換が市場の多様性を増すにつれ、この柔軟性の可能性を解き放つためには規制の変更が必要である。
関連論文リスト
- Hunyuan-TurboS: Advancing Large Language Models through Mamba-Transformer Synergy and Adaptive Chain-of-Thought [196.74837065805488]
Hunyuan-TurboSは、Transformer-Mamba Mixture of Expertsの大型ハイブリッドモデルである。
高いパフォーマンスと効率のバランスを保ち、推論コストを低く抑えている。
論文 参考訳(メタデータ) (2025-05-21T12:11:53Z) - FedTSA: A Cluster-based Two-Stage Aggregation Method for Model-heterogeneous Federated Learning [10.254813698006103]
FedTSAは、フェデレートラーニング(FL)におけるシステム不均一性に適したクラスタベースの2段階アグリゲーション手法である
我々は,FedTSAがベースラインを上回り,モデル性能に影響を及ぼす様々な要因を探索することを示す。
論文 参考訳(メタデータ) (2024-07-06T14:59:55Z) - Flextron: Many-in-One Flexible Large Language Model [85.93260172698398]
我々は,フレキシブルモデル展開をサポートするネットワークアーキテクチャとポストトレーニングモデル最適化フレームワークであるFlextronを紹介する。
本稿では,既存の学習用LDMをFlextronモデルに変換するための,サンプル効率のよいトレーニング手法と関連するルーティングアルゴリズムを提案する。
我々は、複数のエンドツーエンドトレーニングされた変種や他の最先端の弾性ネットワークよりも優れた性能を示し、これらは全て、オリジナルの事前訓練と比較してわずか7.63%のトークンを消費する単一の事前訓練ランで実現している。
論文 参考訳(メタデータ) (2024-06-11T01:16:10Z) - Quantifying and Predicting Residential Building Flexibility Using
Machine Learning Methods [1.3812010983144802]
より多くの分散型エネルギー資源が建物に設置されるにつれて、グリッドに柔軟性を提供する可能性が高まっている。
建物が提供する柔軟性を利用するには、アグリゲータやシステムオペレーターが柔軟性を定量化し予測する必要がある。
本稿ではまず,2つの相補的フレキシビリティ指標(電力とエネルギーの柔軟性)を提案し,次に主流の機械学習モデルについて検討する。
論文 参考訳(メタデータ) (2024-03-04T01:44:19Z) - A Block Metropolis-Hastings Sampler for Controllable Energy-based Text
Generation [78.81021361497311]
我々は,大規模言語モデルの反復的プロンプトを通じて,各ステップにおけるシーケンス全体の書き直しを提案する新しいメトロポリス・ハスティングス(MH)サンプリング器を開発した。
対象分布からより効率的かつ正確なサンプリングが可能となり, (b) 事前に固定するのではなく, サンプリング手順により生成長を決定することが可能となった。
論文 参考訳(メタデータ) (2023-12-07T18:30:15Z) - Federated Learning for Inference at Anytime and Anywhere [37.75955497140009]
本稿では,フェデレートラーニング(FL)における事前学習型トランスフォーマーモデルの活用の課題と可能性について考察する。
本稿では,各トランスブロックに新しいアテンションベースのアダプタモジュールを注入することで,事前学習したモデルの適応を効果的に行うことを提案する。
CIFAR-100、FEMNIST、SpeechCommandsv2などの標準FLベンチマークの実験は、この単純なフレームワークが高速で正確なFLを提供することを示した。
論文 参考訳(メタデータ) (2022-12-08T05:32:33Z) - Auxo: Efficient Federated Learning via Scalable Client Clustering [22.323057948281644]
フェデレートラーニング(FL)は、論理的に集中したサーバに生データを公開せずに、エッジデバイスが協調的にMLモデルをトレーニングすることを可能にする。
統計的に類似したデータ分布(コホート)を持つクライアントを,大規模・低可用性・資源制約のFL群で段階的に識別するAuxoを提案する。
Auxoは最終的な精度(2.1% - 8.2%)、収束時間(2.2倍)、モデルバイアス(4.8% - 53.8%)の点で、様々な既存のFLソリューションを強化している。
論文 参考訳(メタデータ) (2022-10-29T17:36:51Z) - HuBERT: Self-Supervised Speech Representation Learning by Masked
Prediction of Hidden Units [81.53783563025084]
本稿では、BERTのような予測損失に対して、アライメントされたターゲットラベルを提供するオフラインクラスタリングステップを提案する。
提案手法の重要な要素は,マスク領域にのみ予測損失を適用することである。
HuBERTは、より困難なdev-otherおよびtest-other評価サブセットに対して、最大19%と13%の相対的なWER削減を示す。
論文 参考訳(メタデータ) (2021-06-14T14:14:28Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Slimmable Generative Adversarial Networks [54.61774365777226]
近年、GAN(Generative adversarial Network)は目覚ましい進歩を遂げていますが、モデルの継続的な拡大は、実用的なアプリケーションに広く展開することを困難にしています。
本稿では,実行時の各種品質効率トレードオフに対応するため,発電機の幅を柔軟に切り替えることのできるスリムブルGANを提案する。
論文 参考訳(メタデータ) (2020-12-10T13:35:22Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - Two-stage building energy consumption clustering based on temporal and
peak demand patterns [3.364554138758565]
本稿では,負荷形状の時間的パターンとピーク要求をより正確に把握する2段階クラスタリング手法を提案する。
第一段階では、大量のクラスターがエネルギー使用パターンの変動を正確に捉えることによって、負荷形状がクラスタ化される。
第2段階では、ダイナミック・タイム・ワープ(Dynamic Time Warping)を用いて、類似のセントロイドとパワー・マグニチュード・レンジのクラスタをマージする。
論文 参考訳(メタデータ) (2020-08-10T17:42:48Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。