論文の概要: NICE^k Metrics: Unified and Multidimensional Framework for Evaluating Deterministic Solar Forecasting Accuracy
- arxiv url: http://arxiv.org/abs/2508.01457v1
- Date: Sat, 02 Aug 2025 18:20:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.886571
- Title: NICE^k Metrics: Unified and Multidimensional Framework for Evaluating Deterministic Solar Forecasting Accuracy
- Title(参考訳): NICE^kメトリクス:決定論的太陽予測精度評価のための統一・多次元フレームワーク
- Authors: Cyril Voyant, Milan Despotovic, Luis Garcia-Gutierrez, Rodrigo Amaro e Silva, Philippe Lauret, Ted Soubdhan, Nadjem Bailek,
- Abstract要約: NICEkフレームワーク(k = 1, 2, 3, Sigma)を導入する。
NICE1は平均エラーをターゲットとし、NICE2は大きなずれを強調し、NICE3は外れ値を強調し、NICESigmaは全部を組み合わせます。
スペインSIARネットワークの68局のモンテカルロシミュレーションとデータを用いて, 自己回帰モデル, 極端な学習, スマート永続性などの手法を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate solar energy output prediction is key for integrating renewables into grids, maintaining stability, and improving energy management. However, standard error metrics such as Root Mean Squared Error (RMSE), Mean Absolute Error (MAE), and Skill Scores (SS) fail to capture the multidimensional nature of solar irradiance forecasting. These metrics lack sensitivity to forecastability, rely on arbitrary baselines (e.g., clear-sky models), and are poorly suited for operational use. To address this, we introduce the NICEk framework (Normalized Informed Comparison of Errors, with k = 1, 2, 3, Sigma), offering a robust and interpretable evaluation of forecasting models. Each NICEk score corresponds to an Lk norm: NICE1 targets average errors, NICE2 emphasizes large deviations, NICE3 highlights outliers, and NICESigma combines all. Using Monte Carlo simulations and data from 68 stations in the Spanish SIAR network, we evaluated methods including autoregressive models, extreme learning, and smart persistence. Theoretical and empirical results align when assumptions hold (e.g., R^2 ~ 1.0 for NICE2). Most importantly, NICESigma consistently shows higher discriminative power (p < 0.05), outperforming traditional metrics (p > 0.05). The NICEk metrics exhibit stronger statistical significance (e.g., p-values from 10^-6 to 0.004 across horizons) and greater generalizability. They offer a unified and operational alternative to standard error metrics in deterministic solar forecasting.
- Abstract(参考訳): 正確な太陽エネルギー出力予測は、再生可能エネルギーをグリッドに統合し、安定性を維持し、エネルギー管理を改善するための鍵となる。
しかし、Root Mean Squared Error (RMSE)、Mean Absolute Error (MAE)、Skill Scores (SS)のような標準誤差メトリクスは、太陽放射の多次元的な性質を捉えていない。
これらの指標には予測可能性に対する感度が欠如しており、任意のベースライン(例えばクリアスキーモデル)に依存しており、運用にはあまり適していない。
これを解決するために,NICEk フレームワーク (Normalized Informed Comparison of Errors, with k = 1, 2, 3, Sigma) を導入し,予測モデルの堅牢かつ解釈可能な評価を行う。
NICE1は平均エラーをターゲットとし、NICE2は大きなずれを強調し、NICE3は外れ値を強調し、NICESigmaは全部を組み合わせます。
スペインSIARネットワークの68局のモンテカルロシミュレーションとデータを用いて, 自己回帰モデル, 極端な学習, スマート永続性などの手法を評価した。
理論的および経験的結果は仮定が成り立つとき(例えば、NICE2)に R^2 ~ 1.0 が成立するときに一致する。
最も重要なのは、NICESigma が常に高い識別力 (p < 0.05) を示し、従来の指標 (p > 0.05) を上回っていることである。
NICEk測度は、より強い統計的重要性(例えば、地平線上の10^-6から0.004までのp値)とより高い一般化性を示す。
それらは、決定論的太陽予測における標準誤差メトリクスの統一的で運用的な代替手段を提供する。
関連論文リスト
- Is Your Model Fairly Certain? Uncertainty-Aware Fairness Evaluation for LLMs [7.197702136906138]
モデルフェアネスのきめ細かい評価を可能にするため,不確実性を考慮した評価基準であるUCerFを提案する。
現在のデータセットにおけるデータサイズ、多様性、明快さの問題を観察し、新しいジェンダー占有公正度評価データセットを導入する。
我々は、メトリックとデータセットを使用してベンチマークを確立し、それを10のオープンソースAIシステムの動作評価に適用する。
論文 参考訳(メタデータ) (2025-05-29T20:45:18Z) - Position: All Current Generative Fidelity and Diversity Metrics are Flawed [58.815519650465774]
現在のジェネレーティブの忠実度と多様性の指標がすべて欠陥があることを示します。
私たちの目標は、モデルではなく、メトリクスの開発により多くの労力を費やすように研究コミュニティを説得することにあります。
論文 参考訳(メタデータ) (2025-05-28T15:10:33Z) - LookAlike: Consistent Distractor Generation in Math MCQs [42.19039301965107]
そこで我々はLookAlikeを提案する。LookAlikeは優先最適化によるエラー・ディトラクタの整合性を改善する手法である。
主なイノベーションは、(a)モデル不整合から合成選好ペアをマイニングすること、(b)教師付き微調整の交互化である。
LookAlike は LLM-as-a-judge 評価の下で、イントラクタ生成の精度51.6%、エラー生成の精度57.2% を達成する。
論文 参考訳(メタデータ) (2025-05-03T19:18:06Z) - On the Robust Approximation of ASR Metrics [30.524282767961463]
そこで本研究では,ASR性能指標の近似に新たなアプローチを提案し,真理ラベルの必要性を排除した。
提案手法は,音声および転写表現の統一空間におけるマルチモーダル埋め込みと,高品質なプロキシモデルを組み合わせることで,プロキシメトリクスの計算を行う。
実験結果から, 測定値の絶対差を1桁に近似し, 最新のベースラインを50%以上上回る結果を得た。
論文 参考訳(メタデータ) (2025-02-18T01:10:17Z) - Enhancing Microgrid Performance Prediction with Attention-based Deep Learning Models [0.0]
本研究の目的は、グリッド不安定性に寄与する電力振動を特徴とするマイクログリッドシステムの運用上の課題に対処することである。
畳み込みとGRU(Gated Recurrent Unit)の強みを活かした統合戦略が提案されている。
このフレームワークは、包括的な負荷予測を行うMulti-Layer Perceptron(MLP)モデルによって固定されている。
論文 参考訳(メタデータ) (2024-07-20T21:24:11Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Comparing Hyper-optimized Machine Learning Models for Predicting Efficiency Degradation in Organic Solar Cells [38.647921189039934]
本研究は,有機太陽電池 (OSC) の電力変換効率 (PCE) に苦しむ時間的劣化を表現するための機械学習モデルを提案する。
製造プロセスと環境条件の両方に関して最大7変数を含む996項目のデータベースを180日間以上作成しました。
一方、根平均二乗誤差(RMSE)、二乗誤差(SSE)の和、および平均絶対誤差(MAE)>1%の目標値であるPCEは、係数決定(R2)の値に達した。
論文 参考訳(メタデータ) (2024-03-29T22:05:26Z) - Confidence and Dispersity Speak: Characterising Prediction Matrix for
Unsupervised Accuracy Estimation [51.809741427975105]
この研究は、ラベルを使わずに、分散シフト下でのモデルの性能を評価することを目的としている。
我々は、両方の特性を特徴付けるのに有効であることが示されている核規範を用いる。
核の基準は既存の手法よりも正確で堅牢であることを示す。
論文 参考訳(メタデータ) (2023-02-02T13:30:48Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。