論文の概要: A Framework of Full-Process Generation Design for Park Green Spaces
Based on Remote Sensing Segmentation-GAN-Diffusion
- arxiv url: http://arxiv.org/abs/2312.10674v1
- Date: Sun, 17 Dec 2023 10:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:09:40.282669
- Title: A Framework of Full-Process Generation Design for Park Green Spaces
Based on Remote Sensing Segmentation-GAN-Diffusion
- Title(参考訳): リモートセンシングセグメンテーション-GAN拡散に基づくパークグリーン空間のフルプロジェネレーション設計の一枠組み
- Authors: Ran Chen, Xingjian Yi, Jing Zhao, Yueheng He, Bainian Chen, Xueqi Yao,
Fangjun Liu, Haoran Li, Zeke Lian
- Abstract要約: GAN, 安定拡散マルチモーダル大規模画像事前学習モデルを用いて, フルプロセスパーク生成設計法を構築する。
メソッドは、完全に無人の設計自動化ワークフローを達成することができる。
- 参考スコア(独自算出の注目度): 7.146722810003991
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The development of generative design driven by artificial intelligence
algorithms is speedy. There are two research gaps in the current research: 1)
Most studies only focus on the relationship between design elements and pay
little attention to the external information of the site; 2) GAN and other
traditional generative algorithms generate results with low resolution and
insufficient details. To address these two problems, we integrate GAN, Stable
diffusion multimodal large-scale image pre-training model to construct a
full-process park generative design method: 1) First, construct a
high-precision remote sensing object extraction system for automated extraction
of urban environmental information; 2) Secondly, use GAN to construct a park
design generation system based on the external environment, which can quickly
infer and generate design schemes from urban environmental information; 3)
Finally, introduce Stable Diffusion to optimize the design plan, fill in
details, and expand the resolution of the plan by 64 times. This method can
achieve a fully unmanned design automation workflow. The research results show
that: 1) The relationship between the inside and outside of the site will
affect the algorithm generation results. 2) Compared with traditional GAN
algorithms, Stable diffusion significantly improve the information richness of
the generated results.
- Abstract(参考訳): 人工知能アルゴリズムによる生成設計の開発は高速である。
現在の研究には2つの研究ギャップがあります
1)ほとんどの研究は,デザイン要素間の関係にのみ注目し,サイトの外部情報にほとんど注意を払わない。
2) GANなどの従来の生成アルゴリズムは, 解像度が低く, 詳細が不十分な結果を生成する。
この2つの問題に対処するために,gan(stable diffusion multimodal large-scale image pre-training model)を統合する。
1)まず,都市環境情報の自動抽出のための高精度リモートセンシング対象抽出システムの構築。
2 次に、ganを用いて、都市環境情報から迅速に設計計画を推測し、生成できる外部環境に基づく公園設計生成システムを構築する。
3)最後に,設計計画を最適化し,詳細を満たし,計画の解決率を64倍に拡大するために,安定拡散を導入する。
この方法は、完全に無人の設計自動化ワークフローを実現することができる。
結果はこう示しています
1) サイト内外との関係は, アルゴリズム生成結果に影響を及ぼす。
2) 従来のGANアルゴリズムと比較して, 安定拡散は生成した結果の情報豊かさを著しく向上させる。
関連論文リスト
- High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Diffusion Model for Data-Driven Black-Box Optimization [54.25693582870226]
我々は、強力な生成AI技術である拡散モデルに注目し、ブラックボックス最適化の可能性について検討する。
本研究では,1)実数値報酬関数のノイズ測定と,2)対比較に基づく人間の嗜好の2種類のラベルについて検討する。
提案手法は,設計最適化問題を条件付きサンプリング問題に再構成し,拡散モデルのパワーを有効活用する。
論文 参考訳(メタデータ) (2024-03-20T00:41:12Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Ideal Abstractions for Decision-Focused Learning [108.15241246054515]
本稿では,決定関連情報の損失を最小限に抑えるために,出力空間を自動的に構成する手法を提案する。
本手法は,ディープニューラルネットワークトレーニングのためのデータ取得と,閉ループ山火事管理タスクの2つの領域で実証する。
論文 参考訳(メタデータ) (2023-03-29T23:31:32Z) - IGAN: Inferent and Generative Adversarial Networks [0.0]
IGANは複雑な高次元データ分布における生成モデルと推論モデルの両方を学習する。
画像と潜伏空間の両方で敵の戦略を書き換えることで、従来のGANフレームワークを推論で拡張する。
論文 参考訳(メタデータ) (2021-09-27T21:48:35Z) - PcDGAN: A Continuous Conditional Diverse Generative Adversarial Network
For Inverse Design [10.50166876879424]
我々はPcDGAN(Performance Conditioned Diverse Generative Adversarial Network)を紹介する。
PcDGANは新しい自己強化スコアである Lambert Log Exponential Transition Score (LLETS) を使用して条件付けを改善する。
合成問題と実世界の翼設計に関する実験は、PcDGANが最先端のGANモデルより優れていることを示した。
論文 参考訳(メタデータ) (2021-06-07T13:45:12Z) - Generative Design by Reinforcement Learning: Enhancing the Diversity of
Topology Optimization Designs [5.8010446129208155]
本研究では、トポロジ設計の多様性を最大化する報酬関数を備えた強化学習に基づく生成設計プロセスを提案する。
RLをベースとした生成設計は,GPUを完全自動で活用することにより,短時間で多数の多様な設計を生成できることを示す。
論文 参考訳(メタデータ) (2020-08-17T06:50:47Z) - PaDGAN: A Generative Adversarial Network for Performance Augmented
Diverse Designs [13.866787416457454]
本研究では, 優れた設計空間を網羅した新規な高品質な設計を創出可能な, 高性能拡張多言語生成ネットワーク(Performance Augmented Diverse Generative Adversarial Network) または PaDGAN を開発した。
バニラ生成適応ネットワークと比較して、平均的な平均品質スコアが28%高く、多様性が大きく、モード崩壊の問題がないサンプルを生成する。
論文 参考訳(メタデータ) (2020-02-26T04:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。