論文の概要: Enabling Large Language Models to Perform Power System Simulations with Previously Unseen Tools: A Case of Daline
- arxiv url: http://arxiv.org/abs/2406.17215v3
- Date: Tue, 19 Nov 2024 20:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:09:37.519241
- Title: Enabling Large Language Models to Perform Power System Simulations with Previously Unseen Tools: A Case of Daline
- Title(参考訳): 従来見つからなかったツールを用いた大規模言語モデルによる電力系統シミュレーション
- Authors: Mengshuo Jia, Zeyu Cui, Gabriela Hug,
- Abstract要約: この研究は、パワーシステムと大規模言語モデルの両方から専門知識を統合するモジュラーフレームワークを提案する。
GPT-4oのシミュレーション符号化精度は0%から96.07%に向上し、ChatGPT-4oのウェブインタフェースの33.8%の精度を上回っている。
- 参考スコア(独自算出の注目度): 1.4255659581428337
- License:
- Abstract: The integration of experiment technologies with large language models (LLMs) is transforming scientific research, offering AI capabilities beyond specialized problem-solving to becoming research assistants for human scientists. In power systems, simulations are essential for research. However, LLMs face significant challenges in power system simulations due to limited pre-existing knowledge and the complexity of power grids. To address this issue, this work proposes a modular framework that integrates expertise from both the power system and LLM domains. This framework enhances LLMs' ability to perform power system simulations on previously unseen tools. Validated using 34 simulation tasks in Daline, a (optimal) power flow simulation and linearization toolbox not yet exposed to LLMs, the proposed framework improved GPT-4o's simulation coding accuracy from 0% to 96.07%, also outperforming the ChatGPT-4o web interface's 33.8% accuracy (with the entire knowledge base uploaded). These results highlight the potential of LLMs as research assistants in power systems.
- Abstract(参考訳): 大規模な言語モデル(LLM)と実験技術の統合は科学研究を変革し、専門的な問題解決を超えてAI能力を提供し、人間の科学者のための研究アシスタントになる。
電力システムでは、シミュレーションは研究に不可欠である。
しかし、LLMは、既存の知識の制限と電力グリッドの複雑さのために、電力系統シミュレーションにおいて重大な課題に直面している。
この問題に対処するために、電力系統とLLMドメインの両方の専門知識を統合するモジュラーフレームワークを提案する。
このフレームワークは、以前は見つからなかったツール上で電力系統シミュレーションを行うLLMの能力を向上する。
提案したフレームワークは、(最適)電力フローシミュレーションと線形化ツールボックスであるDalineで34のシミュレーションタスクを使用して検証され、GPT-4oのシミュレーションコーディング精度を0%から96.07%に改善し、ChatGPT-4oのWebインターフェースの33.8%の精度(全知識ベースがアップロードされた)を上回った。
これらの結果は、電力システムにおける研究アシスタントとしてのLLMの可能性を強調している。
関連論文リスト
- MAPS: Advancing Multi-Modal Reasoning in Expert-Level Physical Science [62.96434290874878]
現在のMLLM(Multi-Modal Large Language Models)は、一般的な視覚的推論タスクにおいて強力な機能を示している。
我々は,MLLMに基づく物理知覚とシミュレーションによるマルチモーダル科学推論(MAPS)という新しいフレームワークを開発した。
MAPSは、専門家レベルのマルチモーダル推論タスクを物理的知覚モデル(PPM)を介して物理図理解に分解し、シミュレータを介して物理的知識で推論する。
論文 参考訳(メタデータ) (2025-01-18T13:54:00Z) - Explore Activation Sparsity in Recurrent LLMs for Energy-Efficient Neuromorphic Computing [3.379854610429579]
Recurrent Large Language Models (R-LLM) は自己注意の複雑さを軽減するのに有効であることが証明されている。
ニューロモルフィックハードウェア上でのエネルギー効率を高めるために,R-LLMの活性化をスパースする,低コストでトレーニング不要なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-09T19:13:03Z) - LABIIUM: AI-Enhanced Zero-configuration Measurement Automation System [0.0]
本稿では,実験の合理化とユーザの生産性向上を目的としたAIによる計測自動化システムであるLABIiumを紹介する。
Lab-Automation-Measurement Bridges (LAMBs)はVSCodeやPythonといった標準ツールを使ったシームレスなインスツルメンタ接続を可能にし、セットアップのオーバーヘッドをなくす。
この評価は、LABIiumが研究室の生産性を高め、研究と産業におけるデジタルトランスフォーメーションを支援する能力を強調している。
論文 参考訳(メタデータ) (2024-12-07T00:15:24Z) - Evaluating Language Models as Synthetic Data Generators [74.80905172696366]
AgoraBenchは、LMのデータ生成能力を評価するための標準化された設定とメトリクスを提供するベンチマークである。
6つのLMを使って126万のトレーニングインスタンスを合成し、99の学生モデルをトレーニングすることで、LMのデータ生成能力に関する重要な洞察を明らかにする。
論文 参考訳(メタデータ) (2024-12-04T19:20:32Z) - Enhancing LLMs for Power System Simulations: A Feedback-driven Multi-agent Framework [1.4255659581428337]
電力系統のシミュレーションを管理するためのフィードバック駆動型マルチエージェントフレームワークを提案する。
このフレームワークは、DalineとMATPOWERの69種類のタスクでそれぞれ93.13%と96.85%の成功率を達成した。
また、高速で費用対効果の高いタスク実行をサポートし、トークンの平均コスト0.014 USDで各シミュレーションを約30秒で完了する。
論文 参考訳(メタデータ) (2024-11-21T19:01:07Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - LLMServingSim: A HW/SW Co-Simulation Infrastructure for LLM Inference Serving at Scale [17.00936774784349]
大規模言語モデル(LLM)サービスシステムにおいて、汎用的なハードウェア・ソフトウェア動作を正確にモデル化できるシミュレーション基盤が欠如している。
本稿では,LLMServingSimと呼ばれる効率的なシミュレーションツールを開発し,LCMサービスシステムにおける今後の研究を支援することを目的とする。
論文 参考訳(メタデータ) (2024-08-10T09:26:15Z) - An LLM-Based Digital Twin for Optimizing Human-in-the Loop Systems [13.388869442538399]
本稿では,ショッピングモールにおける多様な集団の行動と熱的嗜好を模倣するために,大規模言語モデル(LLM)を用いたケーススタディを提案する。
集約された熱嗜好は、エージェント・イン・ザ・ループに基づく強化学習アルゴリズムであるAitL-RLに統合される。
以上の結果から,LLMは大規模オープンスペース内での複雑な人口移動をシミュレートできることがわかった。
論文 参考訳(メタデータ) (2024-03-25T14:32:28Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。