論文の概要: ChatCFD: An LLM-Driven Agent for End-to-End CFD Automation with Domain-Specific Structured Reasoning
- arxiv url: http://arxiv.org/abs/2506.02019v2
- Date: Mon, 08 Sep 2025 16:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.10219
- Title: ChatCFD: An LLM-Driven Agent for End-to-End CFD Automation with Domain-Specific Structured Reasoning
- Title(参考訳): ChatCFD: ドメイン特有な構造化推論によるエンドツーエンドCFD自動化のためのLLM駆動エージェント
- Authors: E Fan, Kang Hu, Zhuowen Wu, Jiangyang Ge, Jiawei Miao, Yuzhi Zhang, He Sun, Weizong Wang, Tianhan Zhang,
- Abstract要約: ChatCFDはOpenFOAMシミュレーションのための自動エージェントシステムである。
その4段階のパイプラインは、複雑なセットアップのために反復的なトライアル-リフレクション-リファインメントを可能にする。
ChatCFDは、協調マルチエージェントシステムのためのMPPベースのエージェントネットワークにおいて、モジュラーコンポーネントとして強力な可能性を示している。
- 参考スコア(独自算出の注目度): 4.098524616768554
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computational Fluid Dynamics (CFD) is essential for advancing scientific and engineering fields but is hindered by operational complexity, high expertise requirements, and limited accessibility. This paper introduces ChatCFD, an automated agent system for OpenFOAM simulations that processes multi-modal inputs (e.g., research papers, meshes) via an interactive interface, leveraging DeepSeek-R1 and DeepSeek-V3 large language models, a multi-agent architecture, and OpenFOAM knowledge. Its four-stage pipeline (Knowledge Base Construction, User Input Processing, Case File Generation, and Execution and Error Reflection) enables iterative trial-reflection-refinement for intricate setups, supporting diverse physical models and external meshes. Validation on 205 benchmark tutorial cases, 110 perturbed variants, and 2 literature-derived cases shows ChatCFD's 82.1 percent operational success rate on basic cases, outperforming MetaOpenFOAM (6.2 percent) and Foam-Agent (42.3 percent), and 60-80 percent on literature-derived complex cases. Turbulence model studies show a 40 percent success rate for common models versus 10 percent for rare ones like RNG k-epsilon. Physics coupling analyses reveal higher resource demands for multi-physics-coupled cases, while LLM bias toward simpler setups introduces persistent errors, such as dimensional inconsistency. Ablation studies highlight the efficacy of RAG-based modules and reflection mechanisms. By automating hypothesis testing and parameter exploration, ChatCFD accelerates scientific discovery in fluid mechanics and engineering, addressing LLM limitations through structured design and showing strong potential as a modular component in MCP-based agent networks for collaborative multi-agent systems, paving the way for scalable AI-driven CFD innovation. The code for ChatCFD is available at https://github.com/ConMoo/ChatCFD.
- Abstract(参考訳): 計算流体力学(CFD)は、科学や工学の分野では不可欠であるが、運用上の複雑さ、高度な専門知識、限られたアクセシビリティによって妨げられている。
本稿では,マルチモーダル入力(研究論文,メッシュなど)を対話インタフェースで処理し,DeepSeek-R1およびDeepSeek-V3大言語モデル,マルチエージェントアーキテクチャ,OpenFOAMの知識を活用する,OpenFOAMシミュレーションの自動エージェントシステムChatCFDを紹介する。
その4段階のパイプライン(Knowledge Base Construction, User Input Processing, Case File Generation, Execution and Error Reflection)は、複雑なセットアップの反復的な試行修正を可能にし、さまざまな物理モデルと外部メッシュをサポートする。
205のベンチマークチュートリアルケース、110の摂動型、および2つの文献由来のケースに対する検証では、ChatCFDの運用成功率は82.1%であり、MetaOpenFOAM(6.2%)とFoam-Agent(2.3%)を上回り、文学由来の複雑なケースでは60-80%である。
乱流モデル研究は、一般的なモデルでは40%の成功率を示し、RNG k-epsilonのような稀なモデルでは10%の成功率を示している。
物理カップリング解析により, 複数物理結合型ケースの資源要求が増大する一方, LLMの単純なセットアップへの偏りは, 次元的不整合などの持続的エラーをもたらす。
アブレーション研究は、RAGベースのモジュールと反射機構の有効性を強調している。
仮説テストとパラメータ探索を自動化することで、ChatCFDは流体力学とエンジニアリングにおける科学的発見を加速し、構造化設計によるLCMの制限に対処し、マルチエージェントシステムのためのMCPベースのエージェントネットワークのモジュールコンポーネントとして強力なポテンシャルを示し、スケーラブルなAI駆動CFDイノベーションの道を開く。
ChatCFDのコードはhttps://github.com/ConMoo/ChatCFDで公開されている。
関連論文リスト
- Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [68.00108157244952]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - A Domain Adaptation of Large Language Models for Classifying Mechanical Assembly Components [0.9134277125744795]
機能モデリングにより、設計者は特定の構造の詳細が決定される前に製品機能について推論することができる。
関数ベースの設計の有効性は、よく構造化され包括的な機能データがないためにしばしば妨げられる。
本研究では,機械組立部品の機能の自動分類にファインチューニングを用いた新しいLLMベースのドメイン適応(DA)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-02T23:32:50Z) - Fine-tuning a Large Language Model for Automating Computational Fluid Dynamics Simulations [11.902947290205645]
大規模言語モデル(LLM)は高度な科学計算を持ち、CFDでの使用は自動化されている。
ドメイン固有LLM適応に着目した新しいアプローチを提案する。
マルチエージェントフレームワークはプロセスをオーケストレーションし、入力を自律的に検証し、構成を生成し、シミュレーションを実行し、エラーを修正する。
論文 参考訳(メタデータ) (2025-04-13T14:35:30Z) - A Status Quo Investigation of Large Language Models towards Cost-Effective CFD Automation with OpenFOAMGPT: ChatGPT vs. Qwen vs. Deepseek [26.280882787841204]
複数の大言語モデルを用いたOpenFOAMGPTの性能評価を行った。
いくつかのモデルでは、境界条件の調整などの異なるCFDタスクを効率的に管理する。
QwQ-32Bのようなより小さなモデルは、複雑なプロセスのために有効なソルバファイルを生成するのに苦労した。
論文 参考訳(メタデータ) (2025-04-02T14:04:52Z) - Flex: End-to-End Text-Instructed Visual Navigation from Foundation Model Features [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly lexically) で合成され, 凍結パッチワイド特徴抽出器として, 事前学習された視覚言語モデル (VLM) を用いたフレームワークである。
本研究では,本手法の有効性を,行動クローンによる訓練を実世界のシーンに応用した,四重項フライ・トゥ・ターゲットタスクに適用した。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - A Large Language Model and Denoising Diffusion Framework for Targeted Design of Microstructures with Commands in Natural Language [0.0]
自然言語処理(NLP)、大言語モデル(LLM)、拡散確率モデル(DDPM)を統合したフレームワークを提案する。
我々のフレームワークは、事前訓練されたLLMによって駆動されるコンテキストデータ拡張を用いて、多様なマイクロ構造記述子のデータセットを生成し、拡張する。
再学習されたNERモデルは、ユーザが提供する自然言語入力から関連するマイクロ構造記述子を抽出し、DDPMによってターゲットとなる機械的特性とトポロジ的特徴を持つマイクロ構造を生成する。
論文 参考訳(メタデータ) (2024-09-22T14:45:22Z) - MetaOpenFOAM: an LLM-based multi-agent framework for CFD [11.508919041921942]
MetaOpenFOAMは、新しいマルチエージェントコラボレーションフレームワークである。
入力として自然言語のみを用いてCFDシミュレーションタスクを完了することを目的としている。
MetaGPTのアセンブリラインパラダイムのパワーを利用する。
論文 参考訳(メタデータ) (2024-07-31T04:01:08Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。