論文の概要: LLM-based Frameworks for Power Engineering from Routine to Novel Tasks
- arxiv url: http://arxiv.org/abs/2305.11202v3
- Date: Thu, 19 Oct 2023 11:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-21 15:08:49.721355
- Title: LLM-based Frameworks for Power Engineering from Routine to Novel Tasks
- Title(参考訳): ルーチンから新しいタスクへのパワーエンジニアリングのためのLCMベースのフレームワーク
- Authors: Ran Li, Chuanqing Pu, Junyi Tao, Canbing Li, Feilong Fan, Yue Xiang,
Sijie Chen
- Abstract要約: エネルギーセクターのデジタル化は パワーエンジニアと研究者の コーディング責任を拡大しました
本稿では、この負担を軽減するために、LLM(Large Language Models)を活用する可能性について検討する。
- 参考スコア(独自算出の注目度): 3.2328326598511983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The digitalization of energy sectors has expanded the coding responsibilities
for power engineers and researchers. This research article explores the
potential of leveraging Large Language Models (LLMs) to alleviate this burden.
Here, we propose LLM-based frameworks for different programming tasks in power
systems. For well-defined and routine tasks like the classic unit commitment
(UC) problem, we deploy an end-to-end framework to systematically assesses four
leading LLMs-ChatGPT 3.5, ChatGPT 4.0, Claude and Google Bard in terms of
success rate, consistency, and robustness. For complex tasks with limited prior
knowledge, we propose a human-in-the-loop framework to enable engineers and
LLMs to collaboratively solve the problem through interactive-learning of
method recommendation, problem de-composition, subtask programming and
synthesis. Through a comparative study between two frameworks, we find that
human-in-the-loop features like web access, problem decomposition with field
knowledge and human-assisted code synthesis are essential as LLMs currently
still fall short in acquiring cutting-edge and domain-specific knowledge to
complete a holistic problem-solving project.
- Abstract(参考訳): エネルギーセクターのデジタル化は、パワーエンジニアと研究者のコーディング責任を拡大した。
本稿では、この負担を軽減するために、LLM(Large Language Models)を活用する可能性について検討する。
本稿では,パワーシステムにおけるプログラミングタスクの異なる LLM ベースのフレームワークを提案する。
古典的なユニットコミットメント(UC)問題のような明確に定義された日常的なタスクのために、私たちは、成功率、一貫性、堅牢性の観点から、4つの主要なLCM-ChatGPT 3.5、ChatGPT 4.0、Claude、Google Bardを体系的に評価するエンドツーエンドフレームワークをデプロイします。
先行知識が限られている複雑なタスクに対して,提案手法の推薦,問題分解,サブタスクプログラミング,合成の対話的学習を通じて,技術者とLLMが協調的に問題を解けるためのヒューマン・イン・ザ・ループ・フレームワークを提案する。
2つのフレームワークの比較研究を通じて、ウェブアクセス、フィールド知識による問題分解、人手によるコード合成などのヒューマン・イン・ザ・ループ機能は不可欠であることが判明した。
関連論文リスト
- Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Sibyl: Simple yet Effective Agent Framework for Complex Real-world Reasoning [12.80689911863731]
Sibylは、最小限のツールセットを効率的に活用することによって、複雑な推論タスクに取り組むように設計された強力なフレームワークである。
Sibylは、最終回答を自己定義し、包括的でバランスの取れたアプローチを確保するために、マルチエージェントの議論に基づく陪審を実施。
GAIAベンチマークテストセットの実験結果から,Sibylエージェントは平均スコア34.55%の最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2024-07-15T13:45:40Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - New Solutions on LLM Acceleration, Optimization, and Application [14.995654657013741]
大規模言語モデル (LLM) は、様々な応用において人間のような文章を解釈・生成する能力を持つ非常に強力な機器となっている。
しかし、LLMのサイズと複雑さの増大は、トレーニングとデプロイメントの両方において大きな課題をもたらしている。
これらの課題に対処するための最近の進歩と研究の方向性について概観する。
論文 参考訳(メタデータ) (2024-06-16T11:56:50Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Reinforcement Learning Problem Solving with Large Language Models [0.0]
大規模言語モデル (LLM) には膨大な量の世界知識があり、自然言語処理 (NLP) タスクの性能向上のために様々な分野に応用できるようになっている。
これはまた、人間とAIシステム間の会話に基づく対話による、意図した問題を解決するための、よりアクセスしやすいパラダイムを促進する。
研究科学者」と「レガリー・マター・インテーク」の2つの詳細なケーススタディを通して、我々のアプローチの実践性を示す。
論文 参考訳(メタデータ) (2024-04-29T12:16:08Z) - Building Guardrails for Large Language Models [19.96292920696796]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。