論文の概要: Fine-tuning a Large Language Model for Automating Computational Fluid Dynamics Simulations
- arxiv url: http://arxiv.org/abs/2504.09602v2
- Date: Mon, 21 Apr 2025 07:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 11:29:40.053302
- Title: Fine-tuning a Large Language Model for Automating Computational Fluid Dynamics Simulations
- Title(参考訳): 計算流体力学シミュレーションの自動化のための大規模言語モデルの微調整
- Authors: Zhehao Dong, Zhen Lu, Yue Yang,
- Abstract要約: 大規模言語モデル(LLM)は高度な科学計算を持ち、CFDでの使用は自動化されている。
ドメイン固有LLM適応に着目した新しいアプローチを提案する。
マルチエージェントフレームワークはプロセスをオーケストレーションし、入力を自律的に検証し、構成を生成し、シミュレーションを実行し、エラーを修正する。
- 参考スコア(独自算出の注目度): 11.902947290205645
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Configuring computational fluid dynamics (CFD) simulations typically demands extensive domain expertise, limiting broader access. Although large language models (LLMs) have advanced scientific computing, their use in automating CFD workflows is underdeveloped. We introduce a novel approach centered on domain-specific LLM adaptation. By fine-tuning Qwen2.5-7B-Instruct on NL2FOAM, our custom dataset of 28716 natural language-to-OpenFOAM configuration pairs with chain-of-thought (CoT) annotations, we enable direct translation from natural language descriptions to executable CFD setups. A multi-agent framework orchestrates the process, autonomously verifying inputs, generating configurations, running simulations, and correcting errors. Evaluation on a benchmark of 21 diverse flow cases demonstrates state-of-the-art performance, achieving 88.7% solution accuracy and 82.6% first-attempt success rate. This significantly outperforms larger general-purpose models like Qwen2.5-72B-Instruct, DeepSeek-R1, and Llama3.3-70B-Instruct, while also requiring fewer correction iterations and maintaining high computational efficiency. The results highlight the critical role of domain-specific adaptation in deploying LLM assistants for complex engineering workflows. Our code and fine-tuned model have been deposited at https://github.com/YYgroup/AutoCFD.
- Abstract(参考訳): 計算流体力学(CFD)シミュレーションの設定は通常、幅広いアクセスを制限する広範囲なドメインの専門知識を必要とする。
大規模言語モデル(LLM)は先進的な科学計算を持つが、CFDワークフローの自動化には未開発である。
ドメイン固有LLM適応に着目した新しいアプローチを提案する。
NL2FOAM上でQwen2.5-7B命令を微調整することで、28716の自然言語-オープンFOAM設定ペアとチェーン・オブ・シント(CoT)アノテーションを組み合わせ、自然言語記述から実行可能なCFD設定への直接変換を可能にします。
マルチエージェントフレームワークはプロセスをオーケストレーションし、入力を自律的に検証し、構成を生成し、シミュレーションを実行し、エラーを修正する。
21種類のフローケースのベンチマークによる評価は、最先端のパフォーマンスを示し、88.7%の解精度と82.6%の初試行成功率を達成した。
これはQwen2.5-72B-Instruct、DeepSeek-R1、Llama3.3-70B-Instructのようなより大きな汎用モデルよりも優れており、修正の繰り返しは少なく、高い計算効率を維持している。
この結果は、複雑なエンジニアリングワークフローのためのLLMアシスタントのデプロイにおいて、ドメイン固有の適応が重要な役割を担っていることを浮き彫りにした。
私たちのコードと微調整されたモデルはhttps://github.com/YYgroup/AutoCFD.comに保管されています。
関連論文リスト
- A Status Quo Investigation of Large Language Models towards Cost-Effective CFD Automation with OpenFOAMGPT: ChatGPT vs. Qwen vs. Deepseek [26.280882787841204]
複数の大言語モデルを用いたOpenFOAMGPTの性能評価を行った。
いくつかのモデルでは、境界条件の調整などの異なるCFDタスクを効率的に管理する。
QwQ-32Bのようなより小さなモデルは、複雑なプロセスのために有効なソルバファイルを生成するのに苦労した。
論文 参考訳(メタデータ) (2025-04-02T14:04:52Z) - OptMetaOpenFOAM: Large Language Model Driven Chain of Thought for Sensitivity Analysis and Parameter Optimization based on CFD [13.267900480432925]
外部分析および最適化ツールライブラリでMetaOpenFOAMをブリッジするフレームワークであるOptMetaOpenFOAMを紹介します。
自然言語入力による複雑なCFDタスクの自動化により、このフレームワークは、専門家でないユーザに感度分析とパラメータ最適化を行う権限を与える。
論文 参考訳(メタデータ) (2025-03-03T07:55:43Z) - AutoHete: An Automatic and Efficient Heterogeneous Training System for LLMs [68.99086112477565]
トランスフォーマーベースの大規模言語モデル(LLM)は、シーケンスモデリングやテキスト生成において例外的な機能を示した。
既存の異種トレーニング手法は、トレーニング可能なモデルの規模を大幅に拡大するが、かなりの通信オーバーヘッドとCPUワークロードを導入している。
本稿では,シングルGPU環境とマルチGPU環境の両方に互換性のある,自動的で効率的なヘテロジニアストレーニングシステムであるAutoHeteを提案する。
論文 参考訳(メタデータ) (2025-02-27T14:46:22Z) - ScoreFlow: Mastering LLM Agent Workflows via Score-based Preference Optimization [51.280919773837645]
エージェントワークフロー最適化のための高性能フレームワークであるScoreFlowを開発した。
ScoreFlowは、量的フィードバックを考慮に入れた直接選好最適化手法の新たな変種であるScore-DPOを組み込んでいる。
質問応答、コーディング、数学的推論を通じて、既存のベースラインよりも8.2%改善されている。
論文 参考訳(メタデータ) (2025-02-06T18:47:49Z) - MetaOpenFOAM 2.0: Large Language Model Driven Chain of Thought for Automating CFD Simulation and Post-Processing [11.508919041921942]
提案するMetaOpenFOAM 2.0は,COT(Chain of Thought)分解と反復検証を利用して,非専門家ユーザに対するアクセシビリティを向上させる。
シミュレーション(流動、熱伝達、燃焼)と後処理(抽出、可視化)をカバーする新しいベンチマークで、MetaOpenFOAM 2.0は実行可能性スコアが6.3/7、通過率は86.9%に達した。
アブレーション試験では,COTによる分解と反復精製によりタスク性能が大幅に向上した。
論文 参考訳(メタデータ) (2025-02-01T17:31:25Z) - Deriving Coding-Specific Sub-Models from LLMs using Resource-Efficient Pruning [4.762390044282733]
大規模言語モデル(LLM)は、様々な複雑なコード生成タスクにおいて、その例外的な性能を実証している。
このような要求を緩和するために、モデルプルーニング技術は、パラメータが著しく少ないよりコンパクトなモデルを作成するために使用される。
本研究では,非構造化プルーニングによる符号化特化サブモデルの効率的な導出について検討する。
論文 参考訳(メタデータ) (2025-01-09T14:00:01Z) - Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
我々は、MLLMのマルチモーダル推論能力を高めるために、選好最適化(PO)プロセスを導入する。
具体的には、自動選好データ構築パイプラインを設計し、高品質で大規模なマルチモーダル推論選好データセットであるMMPRを作成する。
マルチモーダルCoT性能を向上するMPO(Mixed Preference Optimization)と呼ばれるシンプルな手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,既存の並列処理方式を超越したMoE用パイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法と比較して,プリフィルスループットは52.4%向上した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - MetaOpenFOAM: an LLM-based multi-agent framework for CFD [11.508919041921942]
MetaOpenFOAMは、新しいマルチエージェントコラボレーションフレームワークである。
入力として自然言語のみを用いてCFDシミュレーションタスクを完了することを目的としている。
MetaGPTのアセンブリラインパラダイムのパワーを利用する。
論文 参考訳(メタデータ) (2024-07-31T04:01:08Z) - GEVO-ML: Optimizing Machine Learning Code with Evolutionary Computation [6.525197444717069]
GEVO-MLは、最適化の機会を発見し、機械学習カーネルのパフォーマンスをチューニングするためのツールである。
モデルトレーニングと予測の両方のために、GEVO-MLを2つの異なるMLワークロードでデモする。
GEVO-MLはこれらのモデルに大きな改善を加え、モデル精度が2%の緩和で90.43%の性能向上を達成した。
論文 参考訳(メタデータ) (2023-10-16T09:24:20Z) - CPM-2: Large-scale Cost-effective Pre-trained Language Models [71.59893315671997]
本稿では, PLM を用いた事前学習, 微調整, 推論の効率性問題に対処するための費用対効果技術について述べる。
我々は,既存のPLMをスクラッチからトレーニングする代わりに活用することで,事前学習プロセスの促進を目的とした知識継承を導入する。
計算資源が限られている大規模PLMに対して,新しい推論ツールキット,すなわちInfMoEを実装した。
論文 参考訳(メタデータ) (2021-06-20T15:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。