論文の概要: Integrating Large Language Models for Automated Structural Analysis
- arxiv url: http://arxiv.org/abs/2504.09754v1
- Date: Sun, 13 Apr 2025 23:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:55:42.335658
- Title: Integrating Large Language Models for Automated Structural Analysis
- Title(参考訳): 自動構造解析のための大規模言語モデルの統合
- Authors: Haoran Liang, Mohammad Talebi Kalaleh, Qipei Mei,
- Abstract要約: 本稿では,Large Language Models (LLM) と構造解析ソフトウェアを統合するフレームワークを提案する。
LLMはテキストから構造記述を解析し、それらをPythonスクリプトに変換する。
ドメイン固有のプロンプト設計とコンテキスト内学習戦略を採用し、LLMの問題解決能力と生成安定性を高める。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License:
- Abstract: Automated analysis for engineering structures offers considerable potential for boosting efficiency by minimizing repetitive tasks. Although AI-driven methods are increasingly common, no systematic framework yet leverages Large Language Models (LLMs) for automatic structural analysis. To address this gap, we propose a novel framework that integrates LLMs with structural analysis software. LLMs serve as the core engine: they parse structural descriptions from text and translate them into executable Python scripts. Moreover, the framework integrates the generative capabilities of LLMs with code-based finite element (FE) tools like OpenSeesPy. It employs domain-specific prompt design and in-context learning strategies to enhance the LLM's problem-solving capabilities and generative stability, enabling fully automated structural analysis from descriptive text to model outputs. In our experiments, we introduce a well-curated small-scale benchmark dataset of 20 structural analysis word problems (SAWPs) with ground-truth solutions and evaluate the performance of different LLMs within our framework in solving these SAWPs. The role of system instructions, crafted by structural engineers, is also investigated to understand their impact on LLM-driven structural analysis. Additionally, the generative stability of our framework is examined. Through multiple validation experiments on the benchmark, our results demonstrate that the proposed framework can substantially increase the level of automation in solving SAWPs compared to traditional methods. Quantitatively, the framework, built on GPT-4o, achieved 100% accuracy, surpassing GPT-4 (85%), Gemini 1.5 Pro (80%), and Llama-3.3 (30%) on the test examples. Furthermore, integrating domain-specific instructions enhanced performance by 30% on problems with asymmetrical structural configurations.
- Abstract(参考訳): 工学構造の自動解析は、反復的なタスクを最小化することによって効率を向上する大きな可能性を秘めている。
AI駆動の手法はますます一般的になっているが、体系的なフレームワークはまだ自動構造解析にLarge Language Models (LLM)を利用している。
このギャップに対処するために,LLMと構造解析ソフトウェアを統合する新しいフレームワークを提案する。
LLMはコアエンジンとして機能し、テキストから構造記述を解析し、実行可能なPythonスクリプトに変換する。
さらに、このフレームワークはLLMの生成機能とOpenSeesPyのようなコードベースの有限要素(FE)ツールを統合する。
ドメイン固有のプロンプト設計とコンテキスト内学習戦略を採用し、LLMの問題解決能力と生成安定性を高め、記述テキストからモデル出力への完全に自動化された構造解析を可能にする。
実験では,20個の構造解析語問題 (SAWP) の高精度なベンチマークデータセットを導入し,これらのSAWPを解く際のフレームワーク内での異なるLLMの性能評価を行った。
また,LLM駆動構造解析におけるシステム命令の役割について検討した。
さらに,本フレームワークの生成安定性について検討した。
提案手法は, 従来の手法と比較して, SAWPの解法における自動化のレベルを大幅に向上させることができることを示す。
GPT-4oをベースとしたこのフレームワークは、GPT-4 (85%)、Gemini 1.5 Pro (80%)、Llama-3.3 (30%) を上回り、100%の精度を達成した。
さらに、ドメイン固有の命令を統合することで、非対称な構造構成の問題で性能が30%向上した。
関連論文リスト
- CONSTRUCTA: Automating Commercial Construction Schedules in Fabrication Facilities with Large Language Models [9.419063976761175]
本稿では,半導体製造などの複雑なプロジェクトにおいて,LCMを活用して構築スケジュールを最適化する新しいフレームワークを提案する。
ConSTRUCTAは,(1)静的なRAGを通して構築固有の知識を統合すること,(2)アーキテクチャの専門知識にインスパイアされたコンテキストサンプリング技術を用いて関連するインプットを提供すること,(3)スケジュールを専門家の好みに合わせるために構築DPOを配置すること,といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-17T17:35:42Z) - EnStack: An Ensemble Stacking Framework of Large Language Models for Enhanced Vulnerability Detection in Source Code [1.9374282535132379]
本稿では,自然言語処理(NLP)技術を用いた脆弱性検出を支援する,新たなアンサンブルスタックフレームワークであるEnStackを紹介する。
本手法は,コード理解に特化した複数の事前学習型大規模言語モデル(LLM)を相乗化する。
メタ分類器はそれぞれのLSMの強度を集約し、微妙で複雑な脆弱性を検知する包括的なモデルをもたらす。
論文 参考訳(メタデータ) (2024-11-25T16:47:10Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Enhancing LLM-based Test Generation for Hard-to-Cover Branches via Program Analysis [8.31978033489419]
難解な分岐に到達可能なテストを生成する新しい技術である TELPA を提案する。
27のオープンソースPythonプロジェクトに対する実験結果から,TELPAは最先端のSBSTやLLMベースの技術よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2024-04-07T14:08:28Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Struc-Bench: Are Large Language Models Really Good at Generating Complex Structured Data? [49.688233418425995]
Struc-Benchは、大きな言語モデル(LLM)を特徴とする包括的なベンチマークである。
Pスコア(Prompting Score)とHスコア(Heuristical Score)の2つの革新的な指標を提案する。
実験の結果,LLaMA-7Bに構造認識の微調整を適用すると,性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:31:58Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。