論文の概要: LLM-based Frameworks for Power Engineering from Routine to Novel Tasks
- arxiv url: http://arxiv.org/abs/2305.11202v3
- Date: Thu, 19 Oct 2023 11:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-21 15:08:49.721355
- Title: LLM-based Frameworks for Power Engineering from Routine to Novel Tasks
- Title(参考訳): ルーチンから新しいタスクへのパワーエンジニアリングのためのLCMベースのフレームワーク
- Authors: Ran Li, Chuanqing Pu, Junyi Tao, Canbing Li, Feilong Fan, Yue Xiang,
Sijie Chen
- Abstract要約: エネルギーセクターのデジタル化は パワーエンジニアと研究者の コーディング責任を拡大しました
本稿では、この負担を軽減するために、LLM(Large Language Models)を活用する可能性について検討する。
- 参考スコア(独自算出の注目度): 3.2328326598511983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The digitalization of energy sectors has expanded the coding responsibilities
for power engineers and researchers. This research article explores the
potential of leveraging Large Language Models (LLMs) to alleviate this burden.
Here, we propose LLM-based frameworks for different programming tasks in power
systems. For well-defined and routine tasks like the classic unit commitment
(UC) problem, we deploy an end-to-end framework to systematically assesses four
leading LLMs-ChatGPT 3.5, ChatGPT 4.0, Claude and Google Bard in terms of
success rate, consistency, and robustness. For complex tasks with limited prior
knowledge, we propose a human-in-the-loop framework to enable engineers and
LLMs to collaboratively solve the problem through interactive-learning of
method recommendation, problem de-composition, subtask programming and
synthesis. Through a comparative study between two frameworks, we find that
human-in-the-loop features like web access, problem decomposition with field
knowledge and human-assisted code synthesis are essential as LLMs currently
still fall short in acquiring cutting-edge and domain-specific knowledge to
complete a holistic problem-solving project.
- Abstract(参考訳): エネルギーセクターのデジタル化は、パワーエンジニアと研究者のコーディング責任を拡大した。
本稿では、この負担を軽減するために、LLM(Large Language Models)を活用する可能性について検討する。
本稿では,パワーシステムにおけるプログラミングタスクの異なる LLM ベースのフレームワークを提案する。
古典的なユニットコミットメント(UC)問題のような明確に定義された日常的なタスクのために、私たちは、成功率、一貫性、堅牢性の観点から、4つの主要なLCM-ChatGPT 3.5、ChatGPT 4.0、Claude、Google Bardを体系的に評価するエンドツーエンドフレームワークをデプロイします。
先行知識が限られている複雑なタスクに対して,提案手法の推薦,問題分解,サブタスクプログラミング,合成の対話的学習を通じて,技術者とLLMが協調的に問題を解けるためのヒューマン・イン・ザ・ループ・フレームワークを提案する。
2つのフレームワークの比較研究を通じて、ウェブアクセス、フィールド知識による問題分解、人手によるコード合成などのヒューマン・イン・ザ・ループ機能は不可欠であることが判明した。
関連論文リスト
- Reinforcement Learning Problem Solving with Large Language Models [0.0]
大規模言語モデル (LLM) には膨大な量の世界知識があり、自然言語処理 (NLP) タスクの性能向上のために様々な分野に応用できるようになっている。
これはまた、人間とAIシステム間の会話に基づく対話による、意図した問題を解決するための、よりアクセスしやすいパラダイムを促進する。
研究科学者」と「レガリー・マター・インテーク」の2つの詳細なケーススタディを通して、我々のアプローチの実践性を示す。
論文 参考訳(メタデータ) (2024-04-29T12:16:08Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - An Enhanced Prompt-Based LLM Reasoning Scheme via Knowledge
Graph-Integrated Collaboration [16.054815633190476]
本研究では,知識グラフ(KG)と大規模言語モデル(LLM)の緊密な協調を含む協調学習自由推論手法を提案する。
このような協調的な手法により、より信頼性の高い知識に基づく推論を実現し、推論結果の追跡を容易にする。
論文 参考訳(メタデータ) (2024-02-07T15:56:17Z) - Building Guardrails for Large Language Models [20.71365278201298]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - Caught in the Quicksand of Reasoning, Far from AGI Summit: Evaluating
LLMs' Mathematical and Coding Competency through Ontology-guided
Interventions [50.68293377521595]
大規模言語モデル(LLM)は論理的推論ベンチマークで顕著な結果を示した。
算術的推論とコード生成という,2つの一般的な推論タスクに注目します。
質問に対して、すべてのモデルで大幅なパフォーマンス低下を見せています。
論文 参考訳(メタデータ) (2024-01-17T18:13:07Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [20.186752447895994]
複雑なタスクを実行するためのIoTデバイス間で効果的なコラボレーションを可能にするAIエージェントフレームワークであるLLMindを提案する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMをドメイン固有のAIモジュールと統合し、その能力を高める。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - When does In-context Learning Fall Short and Why? A Study on
Specification-Heavy Tasks [54.71034943526973]
In-context Learning (ICL)は、大規模言語モデル(LLM)のデフォルトメソッドとなっている。
ICLは、複雑で広範囲なタスク仕様を持つタスクである、仕様の重いタスクを処理できないことが分かりました。
我々は、コンテキストを具体的に理解できないこと、タスクスキーマが人間と理解できないこと、長文理解が不十分であること、の3つの主な理由を識別する。
論文 参考訳(メタデータ) (2023-11-15T14:26:30Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。