論文の概要: ProOPF: Benchmarking and Improving LLMs for Professional-Grade Power Systems Optimization Modeling
- arxiv url: http://arxiv.org/abs/2602.03070v1
- Date: Tue, 03 Feb 2026 03:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.231648
- Title: ProOPF: Benchmarking and Improving LLMs for Professional-Grade Power Systems Optimization Modeling
- Title(参考訳): ProOPF: プロフェッショナルグレード電力システム最適化モデリングのためのLLMのベンチマークと改善
- Authors: Chao Shen, Zihan Guo, Xu Wan, Zhenghao Yang, Yifan Zhang, Wengi Huang, Jie Song, Zongyan Zhang, Mingyang Sun,
- Abstract要約: プロレベルのOPFモデリングのためのデータセットとベンチマークであるtextbfProOPF-D と textbfProOPF-B を紹介する。
ProOPF-Dには、パラメータ調整と標準OPFへの構造拡張を備えたNLリクエストのペアリング12Kインスタンスと、実行可能な実装が含まれている。
ProOPF-Bは121のエキスパートアノテートテストケースに基調コードを提供し、具体的および抽象的なOPFモデリング体制の下でエンドツーエンドの評価を可能にする。
- 参考スコア(独自算出の注目度): 26.431357381919295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing renewable penetration introduces substantial uncertainty into power system operations, necessitating frequent adaptation of dispatch objectives and constraints and challenging expertise-intensive, near-real-time modeling workflows. Large Language Models (LLMs) provide a promising avenue for automating this process by translating natural-language (NL) operational requirements into executable optimization models via semantic reasoning and code synthesis. Yet existing LLM datasets and benchmarks for optimization modeling primarily target coarse-grained cross-domain generalization, offering limited, rigorous evaluation in power-system settings, particularly for Optimal Power Flow (OPF). We therefore introduce \textbf{ProOPF-D} and \textbf{ProOPF-B}, a dataset and benchmark for professional-grade OPF modeling: ProOPF-D contains 12K instances pairing NL requests with parameter adjustments and structural extensions to a canonical OPF, together with executable implementations; ProOPF-B provides 121 expert-annotated test cases with ground-truth code, enabling end-to-end evaluation under both concrete and abstract OPF modeling regimes.
- Abstract(参考訳): 再生可能エネルギーの普及は、電力系統の運用にかなりの不確実性をもたらし、ディスパッチの目的と制約の頻繁な適応を必要とし、専門知識に満ちたほぼリアルタイムなモデリングワークフローに挑戦する。
大規模言語モデル(LLM)は、自然言語(NL)の操作要件をセマンティック推論とコード合成を通じて実行可能な最適化モデルに変換することによって、このプロセスを自動化するための有望な道を提供する。
しかし、既存のLLMデータセットと最適化モデルのためのベンチマークは、主に粗い粒度のクロスドメインの一般化を目標としており、特に最適電力フロー(OPF)において、電力システム設定において限定的で厳密な評価を提供する。
ProOPF-D には 12K インスタンスと NL リクエストのペアリング,パラメータ調整,および標準OPF への構造拡張,および実行可能実装が含まれており,ProOPF-B は 121 のエキスパートアノテートテストケースに接地トルースコードを提供し,具体的かつ抽象的なOPF モデリング体制下でのエンドツーエンド評価を可能にする。
関連論文リスト
- LLM for Large-Scale Optimization Model Auto-Formulation: A Lightweight Few-Shot Learning Approach [10.44190976207354]
LEAN-LLM-OPTは大規模なOPTimizationオートフォーミュレーションのためのワークフローフレームワークである。
モデリングタスクを構造化されたサブタスクに分解し、機械的なデータ処理操作を補助ツールにオフロードする。
大規模最適化モデリングタスクにおいて高い性能を達成し、最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2026-01-14T17:09:57Z) - CFD-copilot: leveraging domain-adapted large language model and model context protocol to enhance simulation automation [6.71937346130764]
CFD-copilotは、セットアップから後処理までの自然言語駆動CFDシミュレーションを容易にするために設計されたフレームワークである。
後処理では、外部ツールの実行からLCM推論を分離するオープンスタンダードであるMCP(Model context Protocol)を利用する。
この枠組みはNACA0012翼と3要素30P-30N翼を含むベンチマークで評価された。
論文 参考訳(メタデータ) (2025-12-08T11:42:32Z) - Constraint-Informed Active Learning for End-to-End ACOPF Optimization Proxies [20.822931720366658]
本稿では,AC Optimal Power Flow (ACOPF)問題に対する最適解を効率的に予測するための最適化プロキシ,機械学習(ML)モデルについて検討する。
ACOPF最適化プロキシのための新しいアクティブサンプリングフレームワークを導入し、現実的で多様なトレーニングデータを生成するように設計されている。
計算結果から,既存のサンプリング法よりも同等のトレーニング予算で優れた一般化が得られた。
論文 参考訳(メタデータ) (2025-11-09T06:18:38Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - Intelligent Orchestration of Distributed Large Foundation Model Inference at the Edge [46.1232919707345]
Large Foundation Models (LFMs)は、次世代のEdge AIアプリケーションの新機能をアンロックすることを約束する。
現在の分割推論戦略では、ノード間でLPM層を分割するが、変動するワークロードに適応するようには設計されていない。
本稿では, LFM層を実行時可変変数に配置し, 分割する, 適応型分割推論オーケストレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T15:35:56Z) - Preference-Oriented Supervised Fine-Tuning: Favoring Target Model Over Aligned Large Language Models [12.500777267361102]
我々は,新しいtextbfpreference-textbforiented 教師付き textbffine-textbftuning アプローチ,すなわち PoFT を導入する。
直感的には、SFTを特定の嗜好を与えることによって強化することであり、同じSFTデータ上で、整列 LLM 上でターゲットモデルをテキストフォバリングする。
PoFTは、さまざまなトレーニングデータセットとベースモデルにわたるSFTベースラインに対して、安定的で一貫した改善を実現している。
論文 参考訳(メタデータ) (2024-12-17T12:49:14Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。