論文の概要: Text2BIM: Generating Building Models Using a Large Language Model-based Multi-Agent Framework
- arxiv url: http://arxiv.org/abs/2408.08054v1
- Date: Thu, 15 Aug 2024 09:48:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 14:16:19.091418
- Title: Text2BIM: Generating Building Models Using a Large Language Model-based Multi-Agent Framework
- Title(参考訳): Text2BIM: 大規模言語モデルに基づくマルチエージェントフレームワークによる構築モデルの生成
- Authors: Changyu Du, Sebastian Esser, Stavros Nousias, André Borrmann,
- Abstract要約: Text2 BIMは、自然言語命令から3Dビルディングモデルを生成するマルチエージェントフレームワークである。
エージェントワークフローにルールベースのモデルチェッカーを導入し、LLMエージェントを誘導し、生成されたモデル内の問題を解決する。
このフレームワークは、ユーザ入力によって定義された抽象概念に沿った、高品質で構造的に合理的なビルディングモデルを効果的に生成することができる。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The conventional BIM authoring process typically requires designers to master complex and tedious modeling commands in order to materialize their design intentions within BIM authoring tools. This additional cognitive burden complicates the design process and hinders the adoption of BIM and model-based design in the AEC (Architecture, Engineering, and Construction) industry. To facilitate the expression of design intentions more intuitively, we propose Text2BIM, an LLM-based multi-agent framework that can generate 3D building models from natural language instructions. This framework orchestrates multiple LLM agents to collaborate and reason, transforming textual user input into imperative code that invokes the BIM authoring tool's APIs, thereby generating editable BIM models with internal layouts, external envelopes, and semantic information directly in the software. Furthermore, a rule-based model checker is introduced into the agentic workflow, utilizing predefined domain knowledge to guide the LLM agents in resolving issues within the generated models and iteratively improving model quality. Extensive experiments were conducted to compare and analyze the performance of three different LLMs under the proposed framework. The evaluation results demonstrate that our approach can effectively generate high-quality, structurally rational building models that are aligned with the abstract concepts specified by user input. Finally, an interactive software prototype was developed to integrate the framework into the BIM authoring software Vectorworks, showcasing the potential of modeling by chatting.
- Abstract(参考訳): 従来のBIMオーサリングプロセスでは、設計者はBIMオーサリングツール内で設計意図を具現化するために、複雑で退屈なモデリングコマンドをマスターする必要がある。
この追加の認知的負担は、設計プロセスを複雑化し、AEC(Architecture, Engineering, and Construction)産業におけるBIMとモデルベース設計の採用を妨げる。
より直感的な設計意図の表現を容易にするために,LLMベースのマルチエージェントフレームワークであるText2BIMを提案する。
BIMオーサリングツールのAPIを呼び出す命令コードに変換し、内部レイアウト、外部エンベロープ、セマンティック情報をソフトウェアから直接生成する。
さらに、ルールベースのモデルチェッカーがエージェントワークフローに導入され、事前に定義されたドメイン知識を利用して、LLMエージェントを誘導し、生成されたモデル内の問題を解決し、モデル品質を反復的に改善する。
提案手法に基づく3種類のLLMの性能比較と解析を行った。
評価結果は,ユーザ入力によって定義された抽象概念に整合した,高品質で構造的に合理的なビルディングモデルを効果的に生成できることを示す。
最後に、対話型ソフトウェアプロトタイプを開発し、BIMオーサリングソフトウェアであるVectorworksに統合し、チャットによるモデリングの可能性を示した。
関連論文リスト
- APT: Architectural Planning and Text-to-Blueprint Construction Using Large Language Models for Open-World Agents [8.479128275067742]
本稿では,自律型エージェントによるMinecraftの複雑な構造構築を可能にする,LLM(Large Language Model)駆動のフレームワークを提案する。
連鎖分解とマルチモーダル入力を用いることで、このフレームワークは詳細なアーキテクチャレイアウトと青写真を生成する。
本エージェントは, メモリとリフレクションモジュールの両方を組み込んで, 生涯学習, 適応的洗練, エラー訂正を容易にする。
論文 参考訳(メタデータ) (2024-11-26T09:31:28Z) - GUI Agents with Foundation Models: A Comprehensive Survey [52.991688542729385]
この調査は(M)LLMベースのGUIエージェントに関する最近の研究を集約する。
データ、フレームワーク、アプリケーションにおける重要なイノベーションを強調します。
本稿では, (M)LLM ベースの GUI エージェントの分野におけるさらなる発展を期待する。
論文 参考訳(メタデータ) (2024-11-07T17:28:10Z) - EMMA: Efficient Visual Alignment in Multi-Modal LLMs [56.03417732498859]
EMMAは、視覚的およびテキスト的エンコーディングを効率的に融合するために設計された軽量なクロスプラットフォームモジュールである。
EMMAは複数のタスクのパフォーマンスを最大9.3%向上させ、幻覚に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T23:00:31Z) - VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents [50.12414817737912]
大規模マルチモーダルモデル(LMM)は、人工知能の新たな時代を迎え、言語と視覚の融合によって、高い能力を持つVisual Foundation Agentを形成する。
既存のベンチマークでは、複雑な実世界の環境でのLMMの可能性を十分に証明できない。
VisualAgentBench (VAB) は、視覚基礎エージェントとしてLMMを訓練し評価するための先駆的なベンチマークである。
論文 参考訳(メタデータ) (2024-08-12T17:44:17Z) - Towards a copilot in BIM authoring tool using a large language model-based agent for intelligent human-machine interaction [0.40964539027092917]
デザイナーは、しばしばよりインテリジェントで軽量な方法でソフトウェアと対話しようとします。
本稿では,BIMオーサリングツールにおいて,協調動作として機能する自律エージェントフレームワークを提案する。
BIMオーサリングソフトウェアであるVectorworksのケーススタディでは,提案したフレームワークをシームレスに統合するソフトウェアプロトタイプを実装した。
論文 参考訳(メタデータ) (2024-06-02T17:47:57Z) - Process Modeling With Large Language Models [42.0652924091318]
本稿では,大規模言語モデル(LLM)のプロセスモデリングへの統合について検討する。
プロセスモデルの自動生成と反復的改善にLLMを利用するフレームワークを提案する。
予備的な結果は、プロセスモデリングタスクを合理化するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2024-03-12T11:27:47Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - SymbolicAI: A framework for logic-based approaches combining generative models and solvers [9.841285581456722]
生成過程における概念学習とフロー管理に論理的アプローチを取り入れた,汎用的でモジュール化されたフレームワークであるSybolicAIを紹介する。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - Interactive Design by Integrating a Large Pre-Trained Language Model and
Building Information Modeling [0.0]
本研究では,生成型人工知能(AI)モデル,特にOpenAIの生成型事前学習型トランスフォーマ(GPT)シリーズの可能性について検討する。
本研究は,建築家とAIシステム間の動的協調を促進するために,最先端言語モデルの有効性を示すものである。
論文 参考訳(メタデータ) (2023-06-25T08:18:03Z) - Quantitatively Assessing the Benefits of Model-driven Development in
Agent-based Modeling and Simulation [80.49040344355431]
本稿では,MDD とABMS プラットフォームの利用状況と開発ミスについて比較する。
その結果、MDD4ABMSはNetLogoと類似した設計品質のシミュレーションを開発するのに、より少ない労力を必要とすることがわかった。
論文 参考訳(メタデータ) (2020-06-15T23:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。