論文の概要: Mediating Modes of Thought: LLM's for design scripting
- arxiv url: http://arxiv.org/abs/2411.14485v2
- Date: Tue, 03 Dec 2024 22:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:46.428838
- Title: Mediating Modes of Thought: LLM's for design scripting
- Title(参考訳): 思考の媒介モード:LLMによるデザインスクリプティング
- Authors: Moritz Rietschel, Fang Guo, Kyle Steinfeld,
- Abstract要約: 大規模言語モデル(LLM)は、人間の文脈の一般的な理解を符号化し、幾何学的論理を生成する能力を示す。
このプロジェクトは、LLMがユーザの意図とアルゴリズムを効果的に仲介できれば、デザインにおけるスクリプト作成をより広く楽しくするための強力なツールになる、と推測している。
このようなシステムが、計算設計スクリプティングに関連する幾何学的操作を組み立てるための自然言語のプロンプトを解釈できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 3.196599528747484
- License:
- Abstract: Architects adopt visual scripting and parametric design tools to explore more expansive design spaces (Coates, 2010), refine their thinking about the geometric logic of their design (Woodbury, 2010), and overcome conventional software limitations (Burry, 2011). Despite two decades of effort to make design scripting more accessible, a disconnect between a designer's free ways of thinking and the rigidity of algorithms remains (Burry, 2011). Recent developments in Large Language Models (LLMs) suggest this might soon change, as LLMs encode a general understanding of human context and exhibit the capacity to produce geometric logic. This project speculates that if LLMs can effectively mediate between user intent and algorithms, they become a powerful tool to make scripting in design more widespread and fun. We explore if such systems can interpret natural language prompts to assemble geometric operations relevant to computational design scripting. In the system, multiple layers of LLM agents are configured with specific context to infer the user intent and construct a sequential logic. Given a user's high-level text prompt, a geometric description is created, distilled into a sequence of logic operations, and mapped to software-specific commands. The completed script is constructed in the user's visual programming interface. The system succeeds in generating complete visual scripts up to a certain complexity but fails beyond this complexity threshold. It shows how LLMs can make design scripting much more aligned with human creativity and thought. Future research should explore conversational interactions, expand to multimodal inputs and outputs, and assess the performance of these tools.
- Abstract(参考訳): アーキテクトはビジュアルスクリプティングとパラメトリックデザインツールを採用して、より拡張可能なデザイン空間を探索し(Coates, 2010)、設計の幾何学的ロジックについての考え方を洗練し(Woodbury, 2010)、従来のソフトウェア制限を克服する(Burry, 2011)。
デザインスクリプティングをより使いやすくするために20年を要した努力にもかかわらず、デザイナの自由な考え方とアルゴリズムの剛性の間の断絶は今も続いている(Burry, 2011)。
LLM(Large Language Models)の最近の発展は、LLMが人間のコンテキストの一般的な理解を符号化し、幾何学的論理を生成する能力を示すため、これがすぐに変わるかもしれないことを示唆している。
このプロジェクトは、LLMがユーザの意図とアルゴリズムを効果的に仲介できれば、デザインにおけるスクリプト作成をより広く楽しくするための強力なツールになる、と推測している。
このようなシステムが、計算設計スクリプティングに関連する幾何学的操作を組み立てるための自然言語のプロンプトを解釈できるかどうかを検討する。
システムでは、LLMエージェントの複数のレイヤが特定のコンテキストで設定され、ユーザの意図を推測し、シーケンシャルなロジックを構築する。
ユーザの高レベルのテキストプロンプトが与えられたら、幾何学的記述が作成され、一連の論理演算に蒸留され、ソフトウェア固有のコマンドにマッピングされる。
完成したスクリプトは、ユーザのビジュアルプログラミングインターフェースで構築される。
システムは、ある複雑性まで完全なビジュアルスクリプトを生成することに成功しますが、この複雑さしきい値を超えて失敗します。
LLMがデザインスクリプティングを人間の創造性と思考にどのように適合させるかを示している。
今後の研究は、対話型対話を探求し、マルチモーダルな入力と出力に拡張し、これらのツールの性能を評価することである。
関連論文リスト
- Optimizing Token Usage on Large Language Model Conversations Using the Design Structure Matrix [49.1574468325115]
大規模言語モデルは、多くの分野やタスクにおいてユビキタスになる。
トークンの使用を減らすこと、短いコンテキストウィンドウ、限られた出力サイズ、トークンの取り込みと生成に関連するコストといった課題を克服する必要がある。
この作業は、エンジニアリング設計の分野からLLM会話最適化にデザイン構造マトリックスをもたらす。
論文 参考訳(メタデータ) (2024-10-01T14:38:36Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。