論文の概要: MLMC-based Resource Adequacy Assessment with Active Learning Trained Surrogate Models
- arxiv url: http://arxiv.org/abs/2505.20930v1
- Date: Tue, 27 May 2025 09:21:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.540103
- Title: MLMC-based Resource Adequacy Assessment with Active Learning Trained Surrogate Models
- Title(参考訳): アクティブラーニング訓練サロゲートモデルを用いたMLMCに基づく資源充実度評価
- Authors: Ruiqi Zhang, Simon H. Tindemans,
- Abstract要約: マルチレベルモンテカルロ(MLMC)は、信頼性評価を加速するための柔軟で効果的な分散技術である。
データ駆動サロゲートモデルは、複雑な電力システムフレームワークにおいて低レベルモデルとして提案されている。
- 参考スコア(独自算出の注目度): 6.430258446597413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilevel Monte Carlo (MLMC) is a flexible and effective variance reduction technique for accelerating reliability assessments of complex power system. Recently, data-driven surrogate models have been proposed as lower-level models in the MLMC framework due to their high correlation and negligible execution time once trained. However, in resource adequacy assessments, pre-labeled datasets are typically unavailable. For large-scale systems, the efficiency gains from surrogate models are often offset by the substantial time required for labeling training data. Therefore, this paper introduces a speed metric that accounts for training time in evaluating MLMC efficiency. Considering the total time budget is limited, a vote-by-committee active learning approach is proposed to reduce the required labeling calls. A case study demonstrates that, within practical variance thresholds, active learning enables significantly improved MLMC efficiency with reduced training effort, compared to regular surrogate modelling approaches.
- Abstract(参考訳): マルチレベルモンテカルロ (MLMC) は、複雑な電力系統の信頼性評価を促進するための柔軟で効果的な分散低減手法である。
近年,データ駆動サロゲートモデルがMLMCフレームワークの低レベルモデルとして提案されている。
しかし、リソースの充実度評価では、ラベル付きデータセットは通常利用できない。
大規模システムでは、サロゲートモデルによる効率向上は、トレーニングデータのラベル付けに要するかなりの時間によって相殺されることが多い。
そこで本稿では,MLMCの効率評価に要するトレーニング時間を考慮した速度指標を提案する。
総時間予算が限られているため、必要なラベリングコールを減らすために、投票ごとのアクティブラーニングアプローチが提案されている。
あるケーススタディでは、実用的な分散しきい値において、アクティブラーニングは、通常の代理モデリング手法と比較してトレーニングの労力を減らしてMLMC効率を大幅に改善できることを示した。
関連論文リスト
- Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - Large Language Models as Attribution Regularizers for Efficient Model Training [0.0]
大規模言語モデル(LLM)は、様々な領域で顕著なパフォーマンスを示している。
我々は,LLM生成したグローバルタスク特徴属性を,より小さなネットワークのトレーニングプロセスに組み込む方法を提案する。
我々のアプローチは、数ショットの学習シナリオにおいて優れたパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2025-02-27T16:55:18Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Efficient Self-Improvement in Multimodal Large Language Models: A Model-Level Judge-Free Approach [31.654345704242512]
本稿では,新しいモデルレベルの判断自由自己改善フレームワークを提案する。
本手法では,検証ループにおけるMLLMの必要性を解消しつつ,制御されたフィードバック機構を用いる。
計算要求が大幅に小さく、精度とリコールの精度が向上する。
論文 参考訳(メタデータ) (2024-11-26T00:44:37Z) - Automatic Evaluation for Text-to-image Generation: Task-decomposed Framework, Distilled Training, and Meta-evaluation Benchmark [62.58869921806019]
GPT-4oに基づくタスク分解評価フレームワークを提案し、新しいトレーニングデータセットを自動構築する。
我々は、GPT-4oの評価能力を7BオープンソースMLLM、MiniCPM-V-2.6に効果的に蒸留するための革新的なトレーニング戦略を設計する。
実験結果から,我々の蒸留したオープンソースMLLMは,現在のGPT-4oベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-23T08:06:06Z) - Integration of Active Learning and MCMC Sampling for Efficient Bayesian Calibration of Mechanical Properties [0.5242869847419834]
代理モデルの事前訓練では,低次元から中等次元においても後方推定に大きな誤差が生じることを示した。
本稿では,MCMCアルゴリズムの経路に基づくシンプルな能動学習戦略を提案する。
我々は,フォワードモデルをMCMCアルゴリズムではなく,推論プロセスのボトルネックとみなす。
論文 参考訳(メタデータ) (2024-11-20T14:35:16Z) - No MCMC for me: Amortized sampling for fast and stable training of
energy-based models [62.1234885852552]
エネルギーベースモデル(EBM)は、不確実性を表す柔軟で魅力的な方法である。
本稿では,エントロピー規則化ジェネレータを用いてEMMを大規模に訓練し,MCMCサンプリングを記憶する簡単な方法を提案する。
次に、最近提案されたジョイント・エナジー・モデル(JEM)に推定器を適用し、元の性能と高速で安定したトレーニングとを一致させる。
論文 参考訳(メタデータ) (2020-10-08T19:17:20Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。