論文の概要: A Scoping Review of Machine Learning Applications in Power System Protection and Disturbance Management
- arxiv url: http://arxiv.org/abs/2509.09053v1
- Date: Wed, 10 Sep 2025 23:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.170022
- Title: A Scoping Review of Machine Learning Applications in Power System Protection and Disturbance Management
- Title(参考訳): 電力系統保護・外乱管理における機械学習応用のスコーピングレビュー
- Authors: Julian Oelhaf, Georg Kordowich, Mehran Pashaei, Christian Bergler, Andreas Maier, Johann Jäger, Siming Bayer,
- Abstract要約: このスコーピングレビューは、電力系統保護と外乱管理における機械学習(ML)応用に関する最近の文献を合成する。
i) 保護タスクにおけるML研究の範囲を評価すること、(ii) さまざまな運用シナリオにわたるMLパフォーマンスを評価すること、(iii) グリッド条件の進化に適した方法を特定すること、の3つの主要な目的に対処する。
- 参考スコア(独自算出の注目度): 5.539105299550525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of renewable and distributed energy resources reshapes modern power systems, challenging conventional protection schemes. This scoping review synthesizes recent literature on machine learning (ML) applications in power system protection and disturbance management, following the PRISMA for Scoping Reviews framework. Based on over 100 publications, three key objectives are addressed: (i) assessing the scope of ML research in protection tasks; (ii) evaluating ML performance across diverse operational scenarios; and (iii) identifying methods suitable for evolving grid conditions. ML models often demonstrate high accuracy on simulated datasets; however, their performance under real-world conditions remains insufficiently validated. The existing literature is fragmented, with inconsistencies in methodological rigor, dataset quality, and evaluation metrics. This lack of standardization hampers the comparability of results and limits the generalizability of findings. To address these challenges, this review introduces a ML-oriented taxonomy for protection tasks, resolves key terminological inconsistencies, and advocates for standardized reporting practices. It further provides guidelines for comprehensive dataset documentation, methodological transparency, and consistent evaluation protocols, aiming to improve reproducibility and enhance the practical relevance of research outcomes. Critical gaps remain, including the scarcity of real-world validation, insufficient robustness testing, and limited consideration of deployment feasibility. Future research should prioritize public benchmark datasets, realistic validation methods, and advanced ML architectures. These steps are essential to move ML-based protection from theoretical promise to practical deployment in increasingly dynamic and decentralized power systems.
- Abstract(参考訳): 再生可能および分散エネルギー資源の統合は、現代の電力システムを再活性化させ、従来の保護計画に挑戦する。
このスコーピングレビューは、PRISMA for Scoping Reviewsフレームワークに従って、電力系統保護と外乱管理における機械学習(ML)応用に関する最近の文献を合成する。
100以上の出版物に基づいて、3つの主要な目的に対処する。
一 保護業務におけるML研究の範囲を評価すること。
(二)多種多様な運用シナリオにおけるML性能の評価
三 グリッド条件の発達に適した方法を特定すること。
MLモデルはシミュレーションデータセット上で高い精度を示すことが多いが、実際の条件下での性能は十分に検証されていない。
既存の文献は断片化されており、方法論的な厳密さ、データセットの品質、評価基準に矛盾がある。
この標準化の欠如は、結果の互換性を損なうとともに、発見の一般化性を制限する。
これらの課題に対処するため、このレビューでは、保護タスクのためのML指向の分類を導入し、重要な用語的矛盾を解消し、標準化された報告プラクティスを提唱する。
さらに、包括的なデータセット文書、方法論的透明性、一貫した評価プロトコルのガイドラインを提供し、再現性を改善し、研究成果の実践的関連性を高めることを目的としている。
現実のバリデーションの欠如、ロバストネステストの不十分、デプロイメントの実現可能性の制限など、重大なギャップが残っている。
将来の研究は、公開ベンチマークデータセット、現実的な検証方法、高度なMLアーキテクチャを優先すべきである。
これらのステップは、MLベースの保護を理論的な約束から、ますます動的で分散化された電力システムにおける実践的な展開に移行するために不可欠である。
関連論文リスト
- Revisiting Pre-trained Language Models for Vulnerability Detection [10.688122311096253]
プレトレーニング言語モデル(PLM)の急速な進歩は、様々なコード関連タスクに対して有望な結果を示した。
しかし、現実世界の脆弱性を検出する効果は依然として重要な課題である。
本稿では、より小さなコード固有のPLMと大規模PLMにまたがる17のPLMを広範囲に評価するRevisitVDを紹介する。
論文 参考訳(メタデータ) (2025-07-22T17:58:49Z) - Data-efficient Meta-models for Evaluation of Context-based Questions and Answers in LLMs [1.6332728502735252]
大規模言語モデル(LLM)とレトリーバル拡張生成(RAG)システムは、産業アプリケーションにますます多くデプロイされている。
その信頼性は、幻覚検出の課題によって妨げられている。
本稿では,データアノテーションのボトルネックを,トレーニングデータ要件の低減の可能性を検討することによって解決する。
論文 参考訳(メタデータ) (2025-05-29T09:50:56Z) - The Vulnerability of Language Model Benchmarks: Do They Accurately Reflect True LLM Performance? [1.3810901729134184]
大きな言語モデル(LLM)は、真の言語理解と適応性を示すのに失敗しながら、標準化されたテストで優れている。
NLP評価フレームワークの系統的解析により,評価スペクトルにまたがる広範囲にわたる脆弱性が明らかになった。
我々は、操作に抵抗し、データの汚染を最小限に抑え、ドメイン固有のタスクを評価する新しい評価方法の土台を築いた。
論文 参考訳(メタデータ) (2024-12-02T20:49:21Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - A Survey of Automatic Hallucination Evaluation on Natural Language Generation [18.277552023139847]
大規模言語モデル(LLM)は、正確な幻覚評価という重要な課題を提起している。
本研究は,74種類の評価手法を包括的に分析することにより,この限界に対処するものである。
本稿では,解釈可能性の強化やアプリケーション固有の評価基準の統合など,戦略的な方向性を提案する。
論文 参考訳(メタデータ) (2024-04-18T09:52:18Z) - KIEval: A Knowledge-grounded Interactive Evaluation Framework for Large Language Models [53.84677081899392]
KIEvalは、大規模言語モデルのための知識ベースでインタラクティブな評価フレームワークである。
動的汚染耐性評価を達成するために、LSMを動力とする"インターアクター"の役割を初めて取り入れている。
5つのデータセットにわたる7つのLLMの大規模な実験により、KIEvalの有効性と一般化が検証された。
論文 参考訳(メタデータ) (2024-02-23T01:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。