論文の概要: A Novel Multi-Agent Architecture to Reduce Hallucinations of Large Language Models in Multi-Step Structural Modeling
- arxiv url: http://arxiv.org/abs/2603.07728v1
- Date: Sun, 08 Mar 2026 16:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.103924
- Title: A Novel Multi-Agent Architecture to Reduce Hallucinations of Large Language Models in Multi-Step Structural Modeling
- Title(参考訳): マルチステップ構造モデリングにおける大規模言語モデルのハロシン化低減のための新しいマルチエージェントアーキテクチャ
- Authors: Ziheng Geng, Jiachen Liu, Ran Cao, Lu Cheng, Dan M. Frangopol, Minghui Cheng,
- Abstract要約: 本研究では,OpenSeesPyを用いた構造モデリングと解析を自動化する新しいマルチエージェントアーキテクチャを提案する。
提案手法は10回繰り返し試行錯誤した20フレーム問題をベンチマークで評価し、18件で100%,残りの2件で90%の精度で評価した。
- 参考スコア(独自算出の注目度): 14.895933109860342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) such as GPT and Gemini have demonstrated remarkable capabilities in contextual understanding and reasoning. The strong performance of LLMs has sparked growing interest in leveraging them to automate tasks traditionally dependent on human expertise. Recently, LLMs have been integrated into intelligent agents capable of operating structural analysis software (e.g., OpenSees) to construct structural models and perform analyses. However, existing LLMs are limited in handling multi-step structural modeling due to frequent hallucinations and error accumulation during long-sequence operations. To this end, this study presents a novel multi-agent architecture to automate the structural modeling and analysis using OpenSeesPy. First, problem analysis and construction planning agents extract key parameters from user descriptions and formulate a stepwise modeling plan. Node and element agents then operate in parallel to assemble the frame geometry, followed by a load assignment agent. The resulting geometric and load information is translated into executable OpenSeesPy scripts by code translation agents. The proposed architecture is evaluated on a benchmark of 20 frame problems over ten repeated trials, achieving 100% accuracy in 18 cases and 90% in the remaining two. The architecture also significantly improves computational efficiency and demonstrates scalability to larger structural systems.
- Abstract(参考訳): GPTやGeminiのような大規模言語モデル(LLM)は、文脈的理解と推論において顕著な能力を示している。
LLMの強力なパフォーマンスは、伝統的に人間の専門知識に依存したタスクを自動化するためにそれらを活用することへの関心が高まっている。
近年,LLMは構造化モデルの構築と解析を行うため,構造化解析ソフトウェア(OpenSeesなど)を動作可能なインテリジェントエージェントに統合されている。
しかし,従来のLCMは,長時間の操作で頻繁な幻覚やエラー蓄積のために,多段階構造モデリングに限られている。
そこで本研究では,OpenSeesPyを用いた構造モデリングと解析を自動化する新しいマルチエージェントアーキテクチャを提案する。
まず,課題分析と建設計画エージェントがユーザ記述からキーパラメータを抽出し,段階的モデリング計画を定式化する。
ノードと要素エージェントは、フレームのジオメトリを組み立てるために並列に動作し、次にロード代入エージェントが続く。
結果として得られる幾何学的およびロード情報は、コード翻訳エージェントによって実行可能なOpenSeesPyスクリプトに変換される。
提案手法は10回繰り返し試行錯誤した20フレーム問題をベンチマークで評価し、18件で100%,残りの2件で90%の精度で評価した。
アーキテクチャはまた、計算効率を大幅に改善し、より大きな構造系へのスケーラビリティを示す。
関連論文リスト
- Youtu-LLM: Unlocking the Native Agentic Potential for Lightweight Large Language Models [78.73992315826035]
ネイティブエージェントインテリジェンスと高い計算効率を調和させる軽量言語モデルであるYoutu-LLMを紹介する。
Youtu-LLMは、スクラッチから体系的に推論と計画能力の育成まで事前訓練されている。
論文 参考訳(メタデータ) (2025-12-31T04:25:11Z) - Designing Domain-Specific Agents via Hierarchical Task Abstraction Mechanism [61.01709143437043]
階層型タスク抽象化機構(HTAM)を中心とした新しいエージェント設計フレームワークを提案する。
具体的には、HTAMは、社会的役割のエミュレーションを超えて、代わりに、複数のエージェントシステムを、あるドメインの固有のタスク依存グラフを反映する論理階層に構造化する。
我々は、複雑な地理空間解析に適したマルチエージェントシステムであるEarthAgentとして、このフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2025-11-21T12:25:47Z) - LoCoBench-Agent: An Interactive Benchmark for LLM Agents in Long-Context Software Engineering [90.84806758077536]
textbfLoCoBench-Agentは,大規模言語モデル(LLM)エージェントを現実的,長期的ソフトウェア工学で評価するための総合的な評価フレームワークである。
我々のフレームワークは、LoCoBenchの8000のシナリオを対話型エージェント環境に拡張し、マルチターン会話の体系的評価を可能にする。
我々のフレームワークは,8つの特殊なツール(ファイル操作,検索,コード解析)をエージェントに提供し,それを10Kから1Mトークンの範囲で評価する。
論文 参考訳(メタデータ) (2025-11-17T23:57:24Z) - A Lightweight Large Language Model-Based Multi-Agent System for 2D Frame Structural Analysis [21.13581042992661]
大規模言語モデル(LLM)は、工学における自律的エージェントの強化に最近使用されている。
本稿では、2次元フレームの有限要素モデリングを自動化するLLMベースのマルチエージェントシステムを提案する。
このシステムは10回の試行で80%以上の精度を達成し、Gemini-2.5 ProとChatGPT-4oモデルを上回っている。
論文 参考訳(メタデータ) (2025-10-06T22:12:52Z) - EPIC: Generative AI Platform for Accelerating HPC Operational Data Analytics [3.6462220158488985]
EPICは、運用データ分析を強化するために設計された、AI駆動のプラットフォームである。
階層的なマルチエージェントアーキテクチャを採用しており、トップレベルの大規模言語モデルがクエリ処理、推論、合成機能を提供する。
情報検索、記述分析、予測分析の3つの専門的な低レベルエージェントを編成する。
論文 参考訳(メタデータ) (2025-08-29T15:55:07Z) - Integrating Large Language Models for Automated Structural Analysis [0.7373617024876725]
本稿では,Large Language Models (LLM) と構造解析ソフトウェアを統合するフレームワークを提案する。
LLMはテキストから構造記述を解析し、それらをPythonスクリプトに変換する。
ドメイン固有のプロンプト設計とコンテキスト内学習戦略を採用し、LLMの問題解決能力と生成安定性を高める。
論文 参考訳(メタデータ) (2025-04-13T23:10:33Z) - A Survey of Model Architectures in Information Retrieval [59.61734783818073]
2019年から現在までの期間は、情報検索(IR)と自然言語処理(NLP)における最大のパラダイムシフトの1つとなっている。
従来の用語ベースの手法から現代のニューラルアプローチまで,特にトランスフォーマーベースのモデルとそれに続く大規模言語モデル(LLM)の影響が注目されている。
今後の課題と今後の方向性について、先見的な議論で締めくくります。
論文 参考訳(メタデータ) (2025-02-20T18:42:58Z) - APT: Architectural Planning and Text-to-Blueprint Construction Using Large Language Models for Open-World Agents [8.479128275067742]
本稿では,自律型エージェントによるMinecraftの複雑な構造構築を可能にする,LLM(Large Language Model)駆動のフレームワークを提案する。
連鎖分解とマルチモーダル入力を用いることで、このフレームワークは詳細なアーキテクチャレイアウトと青写真を生成する。
本エージェントは, メモリとリフレクションモジュールの両方を組み込んで, 生涯学習, 適応的洗練, エラー訂正を容易にする。
論文 参考訳(メタデータ) (2024-11-26T09:31:28Z) - Designing Algorithms Empowered by Language Models: An Analytical Framework, Case Studies, and Insights [86.06371692309972]
本研究では,大規模言語モデル(LLM)に基づくアルゴリズムの設計と解析のための分析フレームワークを提案する。
提案する枠組みは頭痛を緩和する試みとして機能する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。