論文の概要: FloorPlan-DeepSeek (FPDS): A multimodal approach to floorplan generation using vector-based next room prediction
- arxiv url: http://arxiv.org/abs/2506.21562v1
- Date: Thu, 12 Jun 2025 04:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.270398
- Title: FloorPlan-DeepSeek (FPDS): A multimodal approach to floorplan generation using vector-based next room prediction
- Title(参考訳): FloorPlan-DeepSeek (FPDS):ベクトルベース次室予測を用いたフロアプラン生成へのマルチモーダルアプローチ
- Authors: Jun Yin, Pengyu Zeng, Jing Zhong, Peilin Li, Miao Zhang, Ran Luo, Shuai Lu,
- Abstract要約: 既存のフロアプラン生成モデルは、主にエンド・ツー・エンドの世代であり、単一のパスでピクセルベースのレイアウト全体を生成する。
建築フロア・プラン・モデリングに適した新しい「次の部屋予測」パラダイムを提案する。
FPDSは、テキストからフロアプランタスクにおける拡散モデルとTell2Designと比較して、競合性能を示す。
- 参考スコア(独自算出の注目度): 25.35768485637194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the architectural design process, floor plan generation is inherently progressive and iterative. However, existing generative models for floor plans are predominantly end-to-end generation that produce an entire pixel-based layout in a single pass. This paradigm is often incompatible with the incremental workflows observed in real-world architectural practice. To address this issue, we draw inspiration from the autoregressive 'next token prediction' mechanism commonly used in large language models, and propose a novel 'next room prediction' paradigm tailored to architectural floor plan modeling. Experimental evaluation indicates that FPDS demonstrates competitive performance in comparison to diffusion models and Tell2Design in the text-to-floorplan task, indicating its potential applicability in supporting future intelligent architectural design.
- Abstract(参考訳): アーキテクチャ設計プロセスでは、フロアプラン生成は本質的に進歩的で反復的です。
しかし、フロアプランの既存の生成モデルは、主にエンド・ツー・エンドの世代であり、単一のパスでピクセルベースのレイアウト全体を生成する。
このパラダイムは、現実のアーキテクチャの実践で見られるインクリメンタルなワークフローとは相容れないことが多い。
この問題に対処するために,大規模言語モデルで一般的に使用される自己回帰的な「次世代トークン予測」機構から着想を得た上で,建築フロアプランモデリングに適した新しい「次世代ルーム予測」パラダイムを提案する。
実験により,FPDSはテキストからフロアプランタスクにおける拡散モデルやTell2Designと競合する性能を示した。
関連論文リスト
- FloorplanMAE:A self-supervised framework for complete floorplan generation from partial inputs [25.35768485637194]
不完全なフロアプランを完全なフロアプランに復元するための自己教師型学習フレームワークであるFloorplanMAEを提案する。
まず,建築用フロアプランに特化して訓練したフロアプラン再構築データセットFloorplanNetを開発した。
次に,Masked Autoencoders (MAE) に基づくフロアプラン再構築手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T02:22:05Z) - Latent Diffusion Planning for Imitation Learning [78.56207566743154]
Latent Diffusion Planning (LDP) は、プランナーと逆ダイナミクスモデルからなるモジュラーアプローチである。
行動予測からプランニングを分離することにより、LDPは最適なデータと行動自由データのより密集した監視信号の恩恵を受けることができる。
シミュレーションされた視覚ロボット操作タスクにおいて、LDPは最先端の模倣学習アプローチより優れている。
論文 参考訳(メタデータ) (2025-04-23T17:53:34Z) - HouseTune: Two-Stage Floorplan Generation with LLM Assistance [10.558141230827847]
本稿では,大規模言語モデルの推論能力と拡散モデルの生成能力を組み合わせた2段階のテキスト・ツー・フロアプラン・フレームワークを提案する。
実験結果から,本手法は全指標の最先端性能を実現し,実用的ホームデザインアプリケーションにおける有効性を検証した。
論文 参考訳(メタデータ) (2024-11-19T06:57:45Z) - Planning as In-Painting: A Diffusion-Based Embodied Task Planning
Framework for Environments under Uncertainty [56.30846158280031]
具体的AIのためのタスクプランニングは、最も難しい問題の1つだ。
In-paintingとしての計画」というタスク非依存の手法を提案する。
提案するフレームワークは,様々な具体的AIタスクにおいて,有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-02T10:07:17Z) - Compositional Foundation Models for Hierarchical Planning [52.18904315515153]
本稿では,言語,視覚,行動データを個別に訓練し,長期的課題を解決するための基礎モデルを提案する。
我々は,大規模なビデオ拡散モデルを用いて,環境に根ざした記号的計画を構築するために,大規模言語モデルを用いている。
生成したビデオプランは、生成したビデオからアクションを推論する逆ダイナミクスモデルを通じて、視覚運動制御に基礎を置いている。
論文 参考訳(メタデータ) (2023-09-15T17:44:05Z) - FloorGenT: Generative Vector Graphic Model of Floor Plans for Robotics [5.71097144710995]
フロアプランを特定の視点から見たラインセグメントのシーケンスとしてモデル化することにより、最近の自己回帰シーケンスモデリングの進歩をフロアプランのモデル化と予測に活用できることが示される。
論文 参考訳(メタデータ) (2022-03-07T13:42:48Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。