論文の概要: Feature-driven reinforcement learning for photovoltaic in continuous intraday trading
- arxiv url: http://arxiv.org/abs/2510.16021v2
- Date: Tue, 21 Oct 2025 22:29:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.719172
- Title: Feature-driven reinforcement learning for photovoltaic in continuous intraday trading
- Title(参考訳): 日内取引における太陽光発電の特徴駆動型強化学習
- Authors: Arega Getaneh Abate, Xiufeng Liu, Ruyu Liu, Xiaobing Zhang,
- Abstract要約: 日内取引における特徴駆動型強化学習(RL)手法を提案する。
RLは、データ駆動機能を状態に統合し、シーケンシャルな決定フレームワークで入札ポリシーを学ぶ。
RL は PV 生産者による日々のアクティブな参加のための,実用的で,データ効率が高く,かつ,運用的に展開可能な経路を提供する。
- 参考スコア(独自算出の注目度): 8.952724019926189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Photovoltaic (PV) operators face substantial uncertainty in generation and short-term electricity prices. Continuous intraday markets enable producers to adjust their positions in real time, potentially improving revenues and reducing imbalance costs. We propose a feature-driven reinforcement learning (RL) approach for PV intraday trading that integrates data-driven features into the state and learns bidding policies in a sequential decision framework. The problem is cast as a Markov Decision Process with a reward that balances trading profit and imbalance penalties and is solved with Proximal Policy Optimization (PPO) using a predominantly linear, interpretable policy. Trained on historical market data and evaluated out-of-sample, the strategy consistently outperforms benchmark baselines across diverse scenarios. Extensive validation shows rapid convergence, real-time inference, and transparent decision rules. Learned weights highlight the central role of market microstructure and historical features. Taken together, these results indicate that feature-driven RL offers a practical, data-efficient, and operationally deployable pathway for active intraday participation by PV producers.
- Abstract(参考訳): 太陽光発電事業者は、発電と短期的な電力価格にかなりの不確実性に直面している。
継続的な日内市場は、生産者がリアルタイムでポジションを調整し、収益の改善と不均衡コストの低減を可能にする。
本稿では,日内取引における特徴駆動型強化学習(RL)手法を提案する。
この問題は、トレーディング利益と不均衡なペナルティのバランスをとる報酬を持つマルコフ決定プロセス(Markov Decision Process)として、主に線形で解釈可能なポリシを使用して、PPO(Proximal Policy Optimization)によって解決される。
過去の市場データに基づいてトレーニングし、アウト・オブ・サンプルを評価したこの戦略は、さまざまなシナリオでベンチマークベースラインを一貫して上回っている。
広範囲な検証は、迅速な収束、リアルタイム推論、透過的な決定ルールを示している。
学習重量は市場のミクロ構造と歴史的特徴の中心的な役割を強調している。
これらの結果から,機能駆動型RLは,PV生産者による日々のアクティブな参加のための実用的で,データ効率が高く,かつ,運用的に展開可能な経路を提供することが示された。
関連論文リスト
- Robust Reinforcement Learning in Finance: Modeling Market Impact with Elliptic Uncertainty Sets [57.179679246370114]
金融分野では、強化学習(RL)エージェントは、価格に影響を与えない歴史的データに基づいて訓練されることが多い。
展開中、これらのエージェントは、自身の取引が資産価格を変えることができるライブマーケットで取引する。
従来のロバストなRLアプローチは、不確実性の集合に対して最悪のパフォーマンスを最適化することで、このモデルの誤特定に対処する。
楕円型不確実性集合の新たなクラスを開発し,効率的かつ堅牢な政策評価を可能にする。
論文 参考訳(メタデータ) (2025-10-22T18:22:25Z) - Joint Bidding on Intraday and Frequency Containment Reserve Markets [2.2020962080622906]
再生可能エネルギー統合が供給変動性を増加させるにつれて、バッテリエネルギー貯蔵システム(BESS)は供給と需要のバランスをとるための実行可能なソリューションを提供する。
本稿では,複数の電力市場におけるバッテリBESSの関与を最適化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-10-03T17:48:21Z) - Scalable Fairness Shaping with LLM-Guided Multi-Agent Reinforcement Learning for Peer-to-Peer Electricity Markets [3.7321070110102075]
ピアツーピア(P2P)エネルギー取引は現代の流通システムの中心となっている。
フェアネスを考慮したマルチエージェント強化学習フレームワークであるFairMarket-RLを提案する。
この枠組みは、取引所を地元のP2P取引にシフトさせ、グリッドのみの調達に対する消費者コストを下げ、参加者間の強い公正性を維持し、実用性を維持する。
論文 参考訳(メタデータ) (2025-08-26T02:25:17Z) - Agent Trading Arena: A Study on Numerical Understanding in LLM-Based Agents [69.58565132975504]
大規模言語モデル(LLM)は、自然言語処理において顕著な能力を示した。
LLMをベースとしたエージェントが競合するマルチエージェント取引を行う仮想ゼロサム株式市場であるエージェントトレーディングアリーナを提示する。
論文 参考訳(メタデータ) (2025-02-25T08:41:01Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - HireVAE: An Online and Adaptive Factor Model Based on Hierarchical and
Regime-Switch VAE [113.47287249524008]
オンラインで適応的な環境で株価予測を行うファクターモデルを構築することは、依然としてオープンな疑問である。
本稿では,オンラインおよび適応型要素モデルであるHireVAEを,市場状況とストックワイド潜在要因の関係を埋め込んだ階層型潜在空間として提案する。
4つの一般的な実市場ベンチマークにおいて、提案されたHireVAEは、以前の手法よりもアクティブリターンの点で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-05T12:58:13Z) - Deep Reinforcement Learning Approach for Trading Automation in The Stock
Market [0.0]
本稿では,Deep Reinforcement Learning (DRL)アルゴリズムを用いて,株式市場における収益性取引を生成するモデルを提案する。
我々は、市場が課す制約を考慮して、部分的に観測されたマルコフ決定プロセス(POMDP)モデルとして取引問題を定式化する。
次に, Twin Delayed Deep Deterministic Policy Gradient (TD3) アルゴリズムを用いて, 2.68 Sharpe Ratio を未知のデータセットに報告し, 定式化した POMDP 問題を解く。
論文 参考訳(メタデータ) (2022-07-05T11:34:29Z) - A Reinforcement Learning Approach for the Continuous Electricity Market
of Germany: Trading from the Perspective of a Wind Park Operator [0.0]
本稿では,Deep Reinforcement Learning (DRL)アルゴリズムに基づく新たな自律的トレーディング手法を提案する。
我々は,ウィンドパーク運営者の立場から,この枠組みを事例スタディとして検証した。
論文 参考訳(メタデータ) (2021-11-26T17:17:27Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。