論文の概要: LLM Agent for Fire Dynamics Simulations
- arxiv url: http://arxiv.org/abs/2412.17146v1
- Date: Sun, 22 Dec 2024 20:03:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:52.232527
- Title: LLM Agent for Fire Dynamics Simulations
- Title(参考訳): 火災力学シミュレーションのためのLLMエージェント
- Authors: Leidong Xu, Danyal Mohaddes, Yi Wang,
- Abstract要約: FoamPilotはFireFOAMのユーザビリティを高めるために設計された概念実証エージェントである。
FireFOAM は OpenFOAM を用いて構築された火災力学と火災抑制シミュレーションの解法である。
FoamPilotは、コードインサイト、ケース構成、シミュレーション評価の3つのコア機能を提供する。
- 参考スコア(独自算出の注目度): 3.0031348283981987
- License:
- Abstract: Significant advances have been achieved in leveraging foundation models, such as large language models (LLMs), to accelerate complex scientific workflows. In this work we introduce FoamPilot, a proof-of-concept LLM agent designed to enhance the usability of FireFOAM, a specialized solver for fire dynamics and fire suppression simulations built using OpenFOAM, a popular open-source toolbox for computational fluid dynamics (CFD). FoamPilot provides three core functionalities: code insight, case configuration and simulation evaluation. Code insight is an alternative to traditional keyword searching leveraging retrieval-augmented generation (RAG) and aims to enable efficient navigation and summarization of the FireFOAM source code for developers and experienced users. For case configuration, the agent interprets user requests in natural language and aims to modify existing simulation setups accordingly to support intermediate users. FoamPilot's job execution functionality seeks to manage the submission and execution of simulations in high-performance computing (HPC) environments and provide preliminary analysis of simulation results to support less experienced users. Promising results were achieved for each functionality, particularly for simple tasks, and opportunities were identified for significant further improvement for more complex tasks. The integration of these functionalities into a single LLM agent is a step aimed at accelerating the simulation workflow for engineers and scientists employing FireFOAM for complex simulations critical for improving fire safety.
- Abstract(参考訳): 大規模言語モデル(LLM)のような基礎モデルを活用することで、複雑な科学的ワークフローを加速する重要な進歩が達成されている。
本研究は,計算流体力学(CFD)のオープンソースツールボックスであるOpenFOAMを用いて構築された火災力学と火災抑制シミュレーションを専門とするFireFOAMのユーザビリティ向上を目的としたコンセプトLLMエージェントであるFoamPilotを紹介する。
FoamPilotは、コードインサイト、ケース構成、シミュレーション評価の3つのコア機能を提供する。
コードインサイトは、検索強化世代(RAG)を利用した従来のキーワード検索の代替であり、開発者と経験豊富なユーザのためのFireFOAMソースコードの効率的なナビゲーションと要約を可能にすることを目的としている。
例えば、エージェントは自然言語でユーザ要求を解釈し、中間ユーザのサポートに応じて既存のシミュレーション設定を変更することを目的としている。
FoamPilotのジョブ実行機能は、高性能コンピューティング(HPC)環境でシミュレーションの提出と実行を管理し、経験の浅いユーザをサポートするためにシミュレーション結果の予備的な分析を提供する。
それぞれの機能、特に単純なタスクに対するプロムレーションの結果が得られ、より複雑なタスクに対する大幅な改善の機会が特定された。
これらの機能を単一のLCMエージェントに統合することは、火災の安全性向上に不可欠な複雑なシミュレーションのためにFireFOAMを使用しているエンジニアや科学者のシミュレーションワークフローを加速することを目的としたステップである。
関連論文リスト
- AutoFLUKA: A Large Language Model Based Framework for Automating Monte Carlo Simulations in FLUKA [6.571041942559539]
モンテカルロ (MC) シミュレーションは、科学と工学の分野で現実世界のシナリオを再現するために不可欠である。
堅牢性と汎用性にもかかわらず、FLUKAは自動化と外部の後処理ツールとの統合において大きな制限に直面している。
本研究では,これらの制約に対処するLarge Language Models(LLM)とAIエージェントの可能性について検討する。
本稿では、LangChain Python Frameworkを用いて開発され、FLUKAの典型的なMCシミュレーションを自動化するAIエージェントであるAutoFLUKAを紹介する。
論文 参考訳(メタデータ) (2024-10-19T21:50:11Z) - FactorSim: Generative Simulation via Factorized Representation [14.849320460718591]
本稿では,エージェントの訓練に使用できる言語入力から,コード中のフルシミュレーションを生成するFACTORSIMを提案する。
評価のために、我々は、強化学習環境におけるゼロショット転送を容易にするため、生成したシミュレーションコードの精度と有効性を評価できる生成シミュレーションベンチマークを導入する。
その結果、FACTORSIMは、即時アライメント(例えば、精度)、ゼロショット転送能力、人的評価に関するシミュレーションを生成する上で、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T09:00:30Z) - ComfyBench: Benchmarking LLM-based Agents in ComfyUI for Autonomously Designing Collaborative AI Systems [80.69865295743149]
この研究は、LLMベースのエージェントを使用して、協調AIシステムを自律的に設計する試みである。
ComfyBenchをベースとしたComfyAgentは,エージェントが自律的に協調的なAIシステムを生成して設計できるようにするフレームワークである。
ComfyAgentは、o1-previewに匹敵する解像度を達成し、ComfyBenchの他のエージェントをはるかに上回っているが、ComfyAgentはクリエイティブタスクの15%しか解決していない。
論文 参考訳(メタデータ) (2024-09-02T17:44:10Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - MetaOpenFOAM: an LLM-based multi-agent framework for CFD [11.508919041921942]
MetaOpenFOAMは、新しいマルチエージェントコラボレーションフレームワークである。
入力として自然言語のみを用いてCFDシミュレーションタスクを完了することを目的としている。
MetaGPTのアセンブリラインパラダイムのパワーを利用する。
論文 参考訳(メタデータ) (2024-07-31T04:01:08Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Colmena: Scalable Machine-Learning-Based Steering of Ensemble
Simulations for High Performance Computing [3.5604179670745237]
オープンソースのPythonフレームワークであるColmenaを紹介します。
Colmenaはタスクディスパッチ、結果のコレーション、MLモデル呼び出し、MLモデル(再)トレーニングを処理し、Parslを使用してHPCシステム上でタスクを実行する。
コルメナの設計について述べるとともに, 電解質設計に応用して, 65536 CPUまでスケールアップし, 高速分子の発見速度を100倍に向上させる。
論文 参考訳(メタデータ) (2021-10-06T14:56:53Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。