論文の概要: Text2VP: Generative AI for Visual Programming and Parametric Modeling
- arxiv url: http://arxiv.org/abs/2407.07732v2
- Date: Mon, 19 May 2025 04:05:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:51.246909
- Title: Text2VP: Generative AI for Visual Programming and Parametric Modeling
- Title(参考訳): Text2VP:ビジュアルプログラミングとパラメトリックモデリングのための生成AI
- Authors: Guangxi Feng, Wei Yan,
- Abstract要約: 本稿では,GPT-4.1から派生した新しい生成AIであるText2VP (Text-to-Visual Programming) GPTを紹介する。
テストでは、関数パラメトリックモデルを生成するText2VPの機能を示すが、より高い複雑性モデルはエラー率を増大させる。
究極的には、Text2VPはデザイナーがGrasshopperのような特殊なプラットフォームで広範なトレーニングをすることなくパラメトリックモデルを簡単に作成および修正できるようにすることを目的としている。
- 参考スコア(独自算出の注目度): 6.531561475204309
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of generative artificial intelligence (AI) into architectural design has advanced significantly, enabling the generation of text, images, and 3D models. However, prior AI applications lack support for text-to-parametric models, essential for generating and optimizing diverse parametric design options. This study introduces Text-to-Visual Programming (Text2VP) GPT, a novel generative AI derived from GPT-4.1, designed to automate graph-based visual programming workflows, parameters, and their interconnections. Text2VP leverages detailed documentation, specific instructions, and example-driven few-shot learning to reflect user intentions accurately and facilitate interactive parameter adjustments. Testing demonstrates Text2VP's capability in generating functional parametric models, although higher complexity models present increased error rates. This research highlights generative AI's potential in visual programming and parametric modeling, laying groundwork for future improvements to manage complex modeling tasks. Ultimately, Text2VP aims to enable designers to easily create and modify parametric models without extensive training in specialized platforms like Grasshopper.
- Abstract(参考訳): 生成人工知能(AI)をアーキテクチャ設計に統合することで、テキスト、画像、および3Dモデルの生成が可能になった。
しかし、従来のAIアプリケーションはテキストからパラメトリックモデルをサポートしておらず、多様なパラメトリック設計オプションの生成と最適化に不可欠である。
本稿では,GPT-4.1から派生した新しい生成AIであるText-to-Visual Programming (Text2VP) GPTを紹介する。
Text2VPは詳細なドキュメンテーション、具体的な指示、サンプル駆動の少ショット学習を活用して、ユーザの意図を正確に反映し、対話的なパラメータ調整を容易にする。
テストでは、関数パラメトリックモデルを生成するText2VPの機能を示すが、より高い複雑性モデルはエラー率を増大させる。
この研究は、ビジュアルプログラミングとパラメトリックモデリングにおける生成AIの可能性を強調し、複雑なモデリングタスクを管理するための将来の改善の基礎を敷く。
究極的には、Text2VPはデザイナーがGrasshopperのような特殊なプラットフォームで広範なトレーニングをすることなくパラメトリックモデルを簡単に作成および修正できるようにすることを目的としている。
関連論文リスト
- A Systematic Literature Review of Parameter-Efficient Fine-Tuning for Large Code Models [2.171120568435925]
コードのための大規模言語モデル(LLM)は、訓練と微調整のためにかなりの計算資源を必要とする。
この問題に対処するため,研究コミュニティは,より効率的なファインチューニング(PEFT)へと移行している。
PEFTは、モデル全体ではなく、パラメータの小さなサブセットだけを更新することで、大きなモデルの適応を可能にする。
本研究は,27件の査読論文から得られた知見を合成し,構成戦略のパターンと適応トレードオフを同定する。
論文 参考訳(メタデータ) (2025-04-29T16:19:25Z) - Generative Design through Quality-Diversity Data Synthesis and Language Models [5.196236145367301]
エンジニアリングアプリケーションにおける2つの基本的な課題は、ハイパフォーマンスで多様なデータセットの取得と、生成された設計における正確な制約への固執である。
アーキテクチャ設計におけるこれらの課題に取り組むために,最適化,制約満足度,言語モデルを組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-16T11:30:08Z) - Multimodal Large Language Model is a Human-Aligned Annotator for Text-to-Image Generation [87.50120181861362]
VisionPreferは高品質できめ細かい選好データセットで、複数の選好面をキャプチャする。
我々は、VisionPrefer上で報酬モデルVP-Scoreをトレーニングし、テキストから画像への生成モデルのトレーニングを指導し、VP-Scoreの嗜好予測精度は人間のアノテーションに匹敵する。
論文 参考訳(メタデータ) (2024-04-23T14:53:15Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - InstructCV: Instruction-Tuned Text-to-Image Diffusion Models as Vision Generalists [66.85125112199898]
我々は,タスク固有の設計選択を抽象化する,コンピュータビジョンタスクのための統一言語インタフェースを開発する。
InstructCVと呼ばれる我々のモデルは、他のジェネラリストやタスク固有の視覚モデルと比較して競合的に機能する。
論文 参考訳(メタデータ) (2023-09-30T14:26:43Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Large Language and Text-to-3D Models for Engineering Design Optimization [0.1740313383876245]
工学領域における深層テキストから3Dモデルの可能性について検討する。
空力車両最適化の文脈において,OpenAIによるテキスト・ツー・3Dアセット・ネットワークであるShap-Eを用いる。
論文 参考訳(メタデータ) (2023-07-03T07:54:09Z) - Visual Programming for Text-to-Image Generation and Evaluation [73.12069620086311]
テキスト・トゥ・イメージ(T2I)生成と評価のための2つの新しい解釈可能・説明可能なビジュアル・プログラミング・フレームワークを提案する。
まず,T2I生成をオブジェクト/カウント生成,レイアウト生成,画像生成という3つのステップに分解する,解釈可能なステップバイステップT2I生成フレームワークであるVPGenを紹介する。
第2に、視覚プログラミングに基づくT2I生成のための解釈可能かつ説明可能な評価フレームワークであるVPEvalを紹介する。
論文 参考訳(メタデータ) (2023-05-24T16:42:17Z) - AutoML-GPT: Automatic Machine Learning with GPT [74.30699827690596]
本稿では,タスク指向のプロンプトを開発し,大規模言語モデル(LLM)を自動的に活用して学習パイプラインを自動化することを提案する。
本稿では,多様なAIモデルのブリッジとしてGPTを用いたAutoML-GPTを提案する。
このアプローチはコンピュータビジョン、自然言語処理、その他の課題領域において顕著な結果をもたらす。
論文 参考訳(メタデータ) (2023-05-04T02:09:43Z) - Beyond Statistical Similarity: Rethinking Metrics for Deep Generative
Models in Engineering Design [10.531935694354448]
本稿では,工学設計における深部生成モデル(DGM)の評価指標のレビューと実践的指針として,その2つを考察する。
まず,機械学習理論を基礎とした深層生成モデルに対する古典的評価指標について概説する。
次に、深い生成モデルを評価するために使用できる設計固有のメトリクスのセットをキュレートする。
論文 参考訳(メタデータ) (2023-02-06T16:34:16Z) - An Overview on Controllable Text Generation via Variational
Auto-Encoders [15.97186478109836]
ニューラルベース生成モデリングの最近の進歩は、コンピュータシステムが人間と会話できるという期待を再燃させた。
変分自動エンコーダ(VAE)のような潜在変数モデル(LVM)は、テキストデータの分布パターンを特徴付けるように設計されている。
この概要は、既存の生成方式、テキスト変分自動エンコーダに関連する問題、および制御可能な生成に関するいくつかのアプリケーションについて概説する。
論文 参考訳(メタデータ) (2022-11-15T07:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。