論文の概要: Data-driven Power Flow Linearization: Theory
- arxiv url: http://arxiv.org/abs/2407.02501v1
- Date: Mon, 10 Jun 2024 22:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-07 13:24:39.552187
- Title: Data-driven Power Flow Linearization: Theory
- Title(参考訳): データ駆動型潮流線形化理論
- Authors: Mengshuo Jia, Gabriela Hug, Ning Zhang, Zhaojian Wang, Yi Wang, Chongqing Kang,
- Abstract要約: データ駆動型電力フロー線形化(DPFL)は、その高い近似精度、広い適応性、そして最新のシステム属性を暗黙的に組み込む能力で際立っている。
本チュートリアルでは,既存のDPFLメソッドをDPFLトレーニングアルゴリズムと支援手法に分類する。
彼らの数学的モデル、解析解、能力、限界、一般化可能性は体系的に検討され、議論され、要約される。
- 参考スコア(独自算出の注目度): 9.246677771418428
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This two-part tutorial dives into the field of data-driven power flow linearization (DPFL), a domain gaining increased attention. DPFL stands out for its higher approximation accuracy, wide adaptability, and better ability to implicitly incorporate the latest system attributes. This renders DPFL a potentially superior option for managing the significant fluctuations from renewable energy sources, a step towards realizing a more sustainable energy future, by translating the higher model accuracy into increased economic efficiency and less energy losses. To conduct a deep and rigorous reexamination, this tutorial first classifies existing DPFL methods into DPFL training algorithms and supportive techniques. Their mathematical models, analytical solutions, capabilities, limitations, and generalizability are systematically examined, discussed, and summarized. In addition, this tutorial reviews existing DPFL experiments, examining the settings of test systems, the fidelity of datasets, and the comparison made among a limited number of DPFL methods. Further, this tutorial implements extensive numerical comparisons of all existing DPFL methods (40 methods in total) and four classic physics-driven approaches, focusing on their generalizability, applicability, accuracy, and computational efficiency. Through these simulationmethodss, this tutorial aims to reveal the actual performance of all the methods (including the performances exposed to data noise or outliers), guiding the selection of appropriate linearization methods. Furthermore, this tutorial discusses future directions based on the theoretical and numerical insights gained. As the first part, this paper reexamines DPFL theories, covering all the training algorithms and supportive techniques. Capabilities, limitations, and aspects of generalizability, which were previously unmentioned in the literature, have been identified.
- Abstract(参考訳): この2部構成のチュートリアルでは、データ駆動型電力フロー線形化(DPFL)の分野を掘り下げた。
DPFLは、高い近似精度、広い適応性、そして最新のシステム属性を暗黙的に組み込む能力で際立っている。
これにより、DPFLは、より高いモデル精度を経済効率の向上とエネルギー損失の低減に変換することで、より持続可能なエネルギーの未来を実現するための、再生可能エネルギー源からの重大な変動を管理するための、潜在的に優れた選択肢となる。
そこで本チュートリアルでは,既存のDPFL手法をDPFL学習アルゴリズムと支援手法に分類する。
彼らの数学的モデル、解析解、能力、限界、一般化可能性は体系的に検討され、議論され、要約される。
さらに,本チュートリアルでは,既存のDPFL実験をレビューし,テストシステムの設定,データセットの忠実度,DPFL法との比較を行った。
さらに、本チュートリアルでは、既存のDPFL法(合計40手法)と4つの古典物理学駆動アプローチの広範な数値比較を行い、その一般化性、適用性、精度、計算効率に着目した。
これらのシミュレーション手法を通じて、このチュートリアルは、すべての手法(データノイズや外れ値に露呈する性能を含む)の実際の性能を明らかにし、適切な線形化手法の選択を導くことを目的としている。
さらに, このチュートリアルでは, 理論的, 数値的考察に基づいて今後の方向性を論じる。
まず, DPFL理論を再検討し, 全ての学習アルゴリズムと支援手法について述べる。
これまでの文献では未完成であった能力、限界、一般化性の側面が特定されている。
関連論文リスト
- Sparse Orthogonal Parameters Tuning for Continual Learning [34.462967722928724]
事前学習モデル(PTM)に基づく連続学習手法が近年注目されている。
本稿では,SoTU(Sparse Orthogonal Parameters TUning)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-05T05:19:09Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - See Further for Parameter Efficient Fine-tuning by Standing on the Shoulders of Decomposition [56.87609859444084]
パラメータ効率の細かいチューニング(PEFT)は、パラメータの選択したサブセットを最適化し、残りを固定し、計算とストレージのオーバーヘッドを大幅に削減することに焦点を当てている。
分解の観点からそれらを分離することで、すべてのアプローチを統一する第一歩を踏み出します。
本稿では,PEFT技術の性能向上を目的とした,単純かつ効果的なフレームワークとともに,新しい2つのPEFT手法を提案する。
論文 参考訳(メタデータ) (2024-07-07T15:44:42Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Decision-Focused Learning: Foundations, State of the Art, Benchmark and Future Opportunities [46.100825429034266]
決定中心学習(DFL)は、機械学習(ML)と制約付き最適化を統合し、意思決定品質を向上させる新興パラダイムである。
本稿では,MLと制約付き最適化を組み合わせた勾配法と勾配法の両方を詳細に解析する。
論文 参考訳(メタデータ) (2023-07-25T15:17:31Z) - Distributed Gradient Descent for Functional Learning [9.81463654618448]
我々は,カーネルヒルベルト空間を再現するフレームワークにおいて,多数のローカルマシン(プロセッサ)にまたがる関数データに取り組むために,分散勾配勾配関数学習(DGDFL)アルゴリズムを提案する。
軽度条件下では、DGDFLの信頼に基づく最適学習速度は、機能回帰における以前の研究で被った正則性指数の飽和境界を伴わずに得られる。
論文 参考訳(メタデータ) (2023-05-12T12:15:42Z) - Hierarchical Optimization-Derived Learning [58.69200830655009]
我々は,最適化モデル構築の本質的な動作とそれに対応する学習過程を同時に研究するために,階層型ODL(Hyerarchical ODL)という新しいフレームワークを構築した。
これは、最適化と学習という2つの結合されたODLコンポーネントに対する最初の理論的保証である。
論文 参考訳(メタデータ) (2023-02-11T03:35:13Z) - Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics [0.0]
本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
論文 参考訳(メタデータ) (2022-10-09T10:20:09Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Single-step deep reinforcement learning for open-loop control of laminar
and turbulent flows [0.0]
本研究は,流体力学系の最適化と制御を支援するための深部強化学習(DRL)技術の能力を評価する。
原型ポリシー最適化(PPO)アルゴリズムの新たな"退化"バージョンを組み合わせることで、学習エピソード当たり1回だけシステムを最適化するニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-06-04T16:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。