論文の概要: Constructing a personalized AI assistant for shear wall layout using
Stable Diffusion
- arxiv url: http://arxiv.org/abs/2305.10830v1
- Date: Thu, 18 May 2023 09:12:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 16:03:39.429120
- Title: Constructing a personalized AI assistant for shear wall layout using
Stable Diffusion
- Title(参考訳): 安定拡散を用いたせん断壁レイアウトのためのパーソナライズされたAIアシスタントの構築
- Authors: Lufeng Wang, Jiepeng Liu, Guozhong Cheng, En Liu, Wei Chen
- Abstract要約: 本稿では,安定拡散に基づくせん断壁レイアウトのためのパーソナライズされたAIアシスタントを提案する。
テストによって優れた生成結果が得られることが証明されている。
- 参考スコア(独自算出の注目度): 6.739378766136524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shear wall structures are widely used in high-rise residential buildings, and
the layout of shear walls requires many years of design experience and
iterative trial and error. Currently, there are methods based on heuristic
algorithms, but they generate results too slowly. Those based on Generative
Adversarial Networks (GANs) or Graph Neural Networks (GNNs) can only generate
single arrangements and require large amounts of training data. At present,
Stable Diffusion is being widely used, and by using the Low-Rank Adaptation
(LoRA) method to fine-tune large models with small amounts of data, good
generative results can be achieved. Therefore, this paper proposes a
personalized AI assistant for shear wall layout based on Stable Diffusion,
which has been proven to produce good generative results through testing.
- Abstract(参考訳): せん断壁構造は高層住宅で広く利用されており、せん断壁のレイアウトは長年の設計経験と反復的な試行錯誤を必要とする。
現在、ヒューリスティックなアルゴリズムに基づく方法があるが、結果を生成するのが遅すぎる。
Generative Adversarial Networks (GANs) や Graph Neural Networks (GNNs) をベースとするものは、単一の配列しか生成できず、大量のトレーニングデータを必要とする。
現在、安定した拡散が広く使われており、ローランク適応法(lora)を用いて少量のデータで大きなモデルを微調整することで、良好な生成結果が得られる。
そこで本稿では, 安定拡散に基づくせん断壁レイアウトのためのパーソナライズされたAIアシスタントを提案する。
関連論文リスト
- POMONAG: Pareto-Optimal Many-Objective Neural Architecture Generator [4.09225917049674]
Transferable NASが登場し、データセット依存からタスク依存への探索プロセスを一般化した。
本稿では多目的拡散プロセスを通じて拡散NAGを拡張するPOMONAGを紹介する。
結果は、NAS201とMobileNetV3の2つの検索スペースで検証され、15の画像分類データセットで評価された。
論文 参考訳(メタデータ) (2024-09-30T16:05:29Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - ComboStoc: Combinatorial Stochasticity for Diffusion Generative Models [65.82630283336051]
拡散生成モデルの既存のトレーニングスキームにより,次元と属性の組み合わせによって区切られた空間が十分に標本化されていないことを示す。
構造を完全に活用するプロセスを構築し,ComboStocという名前でこの問題に対処する。
論文 参考訳(メタデータ) (2024-05-22T15:23:10Z) - Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - Modular Learning of Deep Causal Generative Models for High-dimensional Causal Inference [5.522612010562183]
Modular-DCMは、因果構造を考えると、敵のトレーニングを用いてネットワーク重みを学習する最初のアルゴリズムである。
本稿では,CelebA-HQ における因果不変予測問題を用いて,このアルゴリズムの COVIDx データセットとそのユーティリティへの収束性を示す。
論文 参考訳(メタデータ) (2024-01-02T20:31:15Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - Learning High-Dimensional Distributions with Latent Neural Fokker-Planck
Kernels [67.81799703916563]
低次元潜在空間におけるフォッカー・プランク方程式の解法として問題を定式化する新しい手法を導入する。
提案モデルでは,潜在分散モーフィング,ジェネレータ,パラメータ化Fokker-Planckカーネル関数からなる。
論文 参考訳(メタデータ) (2021-05-10T17:42:01Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。