論文の概要: ChronoLLM: Customizing Language Models for Physics-Based Simulation Code Generation
- arxiv url: http://arxiv.org/abs/2508.13975v1
- Date: Tue, 19 Aug 2025 16:12:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.007645
- Title: ChronoLLM: Customizing Language Models for Physics-Based Simulation Code Generation
- Title(参考訳): ChronoLLM:物理シミュレーションコード生成のための言語モデルのカスタマイズ
- Authors: Jingquan Wang, Andrew Negrut, Harry Zhang, Khailanii Slaton, Shu Wang, Radu Serban, Jinlong Wu, Dan Negrut,
- Abstract要約: オープンおよびクローズドソースの大規模言語モデル(LLM)の精細化とカスタマイズのためのフレームワークを提案する。
我々は、PyChrono仮想実験を実行するスクリプトを生成する上で、AIの力を利用する。
- 参考スコア(独自算出の注目度): 8.554484252096913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This contribution is concerned with the following issue: can pretrained large language models (LLMs) be refined and customized to the point where they become virtual assistants helping experts with the effective use of a simulation tool? In this case study, the ``simulation tool'' considered is PyChrono, an open source multi-physics dynamics engine for multibody systems. We present a framework for refining and customizing both open- and closed-source LLMs to harness the power of AI in generating scripts that perform PyChrono virtual experiments. We refine and customize several classes of LLMs through a process that leads to a quantifiable improvement in the quality of the generated PyChrono simulation scripts. These scripts can range from simple single-pendulum simulations to complex virtual experiments involving full vehicles on deformable terrain. While the generated scripts are rarely perfect, they often serve as strong starting points for the user to modify and improve on. Additionally, the LLM can answer specific API questions about the simulator, or recommend modeling approaches. The framework discussed is general and can be applied to lower the entry barrier for simulation tools associated with other application domains.
- Abstract(参考訳): 事前訓練された大規模言語モデル(LLM)は、シミュレーションツールを効果的に活用する専門家を支援する仮想アシスタントとなるまで洗練され、カスタマイズできるのか?
このケーススタディでは,「シミュレーションツール」はマルチボディシステムのためのオープンソースのマルチ物理ダイナミックスエンジンであるPyChronoが検討されている。
我々は、PyChrono仮想実験を実行するスクリプトを生成する上で、AIのパワーを活用するために、オープンソースLLMとクローズドソースLLMの両方を精錬し、カスタマイズするフレームワークを提案する。
我々は、生成したPyChronoシミュレーションスクリプトの品質を定量的に向上させるプロセスを通じて、LLMのいくつかのクラスを洗練・カスタマイズする。
これらのスクリプトは、単純な単一振り子シミュレーションから、変形可能な地形上の完全な車両を含む複雑な仮想実験まで様々である。
生成されたスクリプトは滅多に完璧ではないが、ユーザーが修正し改善するための強力な出発点として機能することが多い。
さらに、LCMはシミュレータに関する特定のAPI質問に答えたり、モデリングアプローチを推奨することができる。
議論されているフレームワークは一般的なもので、他のアプリケーションドメインに関連するシミュレーションツールのエントリバリアを低くするために適用することができる。
関連論文リスト
- Large Language Model Agent for User-friendly Chemical Process Simulations [0.0]
大規模言語モデル (LLM) エージェントは AVEVA Process Model Protocol (MCP) と統合され、自然言語のシミュレーションを可能にする。
2つのケーススタディは、異なるタスクの複雑さと相互作用モードにわたるフレームワークを評価する。
このフレームワークは、技術的な概念の翻訳と実証によって教育目的と、データ抽出の自動化、ルーチンタスクの高速化、サポートによって経験豊富な実践者の両方に役立ちます。
オーバーシンプル化、計算エラー、技術的ヒックアップといった現在の制限は専門家の監視を必要とするが、このフレームワークはLSMベースのエージェントが貴重な協力者になれることを示唆している。
論文 参考訳(メタデータ) (2026-01-15T12:18:45Z) - VirtualEnv: A Platform for Embodied AI Research [26.527818430035534]
Unreal Engine 5上に構築された次世代シミュレーションプラットフォームであるVirtualEnvを紹介します。
具体的でインタラクティブなシナリオにおいて、大きな言語モデル(LLM)のきめ細かいベンチマークを可能にする。
私たちはUnreal Engine上に構築されたユーザフレンドリなAPIを提供しており、研究者はLLM駆動エージェントをデプロイし、制御することができます。
論文 参考訳(メタデータ) (2026-01-12T14:04:38Z) - Simulating Environments with Reasoning Models for Agent Training [55.98861707136674]
トレーニング用の起動環境の構築は重く、脆く、進捗を制限します。
我々はSimia-SFTとSimia-RLの2つのフレームワークを提案する。
Simia-SFTとSimia-RLは、環境工学を使わずにスケーラブルなエージェントトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-11-03T18:29:57Z) - AI for Distributed Systems Design: Scalable Cloud Optimization Through Repeated LLMs Sampling And Simulators [3.1594665317979698]
大規模言語モデルからのコード生成と決定論的検証をドメイン固有シミュレータで組み合わせ,AI駆動型分散システムポリシー設計について検討する。
複数のモデル間のスループット改善に関する予備的な結果を報告する。
我々は、AIが新しいシミュレータのブートストラップを支援することで、この方法論のスケールアップに不可欠であると推測する。
論文 参考訳(メタデータ) (2025-10-20T16:10:24Z) - SimBench: Benchmarking the Ability of Large Language Models to Simulate Human Behaviors [58.87134689752605]
我々は,LLMシミュレーションの堅牢で再現可能な科学のための,最初の大規模標準ベンチマークであるSimBenchを紹介する。
現在、最高のLLMでさえシミュレーション能力が限られ(スコア: 40.80/100)、性能はモデルサイズと対数的にスケールする。
シミュレーション能力は、深い知識集約的推論と最も強く相関していることを示す。
論文 参考訳(メタデータ) (2025-10-20T13:14:38Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - G-Sim: Generative Simulations with Large Language Models and Gradient-Free Calibration [48.948187359727996]
G-Simは、厳密な経験的校正によるシミュレータ構築を自動化するハイブリッドフレームワークである。
信頼性のある因果的インフォームドシミュレータを生成し、データ効率を軽減し、堅牢なシステムレベルの介入を可能にする。
論文 参考訳(メタデータ) (2025-06-10T22:14:34Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - MooseAgent: A LLM Based Multi-agent Framework for Automating Moose Simulation [1.729730091778761]
本稿では,マルチ物理シミュレーションフレームワークMOOSEのための自動解法フレームワークMooseAgentを提案する。
MooseAgentは、大規模事前訓練言語モデル(LLM)とマルチエージェントシステムを組み合わせる。
その結果,MooseAgentはMOOSEシミュレーションプロセスをある程度自動化できることがわかった。
論文 参考訳(メタデータ) (2025-04-11T15:25:50Z) - Experiments with Large Language Models on Retrieval-Augmented Generation for Closed-Source Simulation Software [0.36832029288386137]
Retrieval-Augmented Generation (RAG) は知識集約型タスクの解決策となるかもしれない。
本稿では,RAGのクローズドソースシミュレーションソフトウェアへの適用について検討する。
論文 参考訳(メタデータ) (2025-02-06T09:48:04Z) - ChronoLLM: A Framework for Customizing Large Language Model for Digital Twins generalization based on PyChrono [8.922927652378544]
ChronoLlama氏は、オープンソースのLLMをカスタマイズする新しいフレームワーク、特にコード生成のために、マルチ物理シミュレーションのためにPyChronoと組み合わせたフレームワークを紹介した。
この統合は、シミュレーションスクリプトの作成を自動化し、改善することを目的としており、それによってモデルの精度と効率が向上する。
実験結果から,シミュレーション設定速度,生成符号の精度,計算効率の大幅な向上が示唆された。
論文 参考訳(メタデータ) (2025-01-07T10:39:14Z) - ChatSUMO: Large Language Model for Automating Traffic Scenario Generation in Simulation of Urban MObility [5.111204055180423]
大規模言語モデル(LLM)は、テキスト、音声、画像、ビデオなどのマルチモーダルな入力と出力を扱うことができる。
本稿では,言語処理スキルを統合し,抽象的および実世界のシミュレーションシナリオを生成するLLMベースのエージェントChatSUMOを提案する。
シミュレーション生成のために,オールバニ市における実世界のシミュレーションを96%の精度で作成した。
論文 参考訳(メタデータ) (2024-08-29T03:59:11Z) - LLM experiments with simulation: Large Language Model Multi-Agent System for Simulation Model Parametrization in Digital Twins [4.773175285216063]
本稿では,大規模言語モデル(LLM)を適用し,デジタル双生児におけるシミュレーションモデルのパラメトリゼーションを自動化する新しいフレームワークを提案する。
提案手法は,LLMの知識を取り入れたシミュレーションモデルのユーザビリティを向上させる。
このシステムは、ユーザのフレンドリさを高め、人間のユーザの認知負荷を軽減する可能性がある。
論文 参考訳(メタデータ) (2024-05-28T11:59:40Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - ClimSim-Online: A Large Multi-scale Dataset and Framework for Hybrid ML-physics Climate Emulation [45.201929285600606]
我々は、ハイブリッドML物理シミュレータを開発するためのエンドツーエンドワークフローを含むClimSim-Onlineを提案する。
データセットはグローバルで、高いサンプリング頻度で10年間にわたっています。
MLモデルを運用環境シミュレータに統合するための、クロスプラットフォームでコンテナ化されたパイプラインを提供します。
論文 参考訳(メタデータ) (2023-06-14T21:26:31Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。