論文の概要: SE-VGAE: Unsupervised Disentangled Representation Learning for Interpretable Architectural Layout Design Graph Generation
- arxiv url: http://arxiv.org/abs/2406.17418v1
- Date: Tue, 25 Jun 2024 09:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 14:51:57.521976
- Title: SE-VGAE: Unsupervised Disentangled Representation Learning for Interpretable Architectural Layout Design Graph Generation
- Title(参考訳): SE-VGAE:解釈可能なアーキテクチャレイアウト設計グラフ生成のための教師なしアンタングル表現学習
- Authors: Jielin Chen, Rudi Stouffs,
- Abstract要約: 本稿では,非教師付き非教師付き非教師付き表現学習フレームワーク,スタイルベースエッジ拡張変分グラフ自動エンコーダを提案する。
このフレームワークは、表現の絡み合いを優先順位付けしながら、属性付き隣接多重グラフの形式でアーキテクチャレイアウトを生成する。
実世界のフロアプラン画像から抽出した大規模レイアウトグラフデータセットのベンチマークに貢献する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the suitability of graphs for capturing the relational structures inherent in architectural layout designs, there is a notable dearth of research on interpreting architectural design space using graph-based representation learning and exploring architectural design graph generation. Concurrently, disentangled representation learning in graph generation faces challenges such as node permutation invariance and representation expressiveness. To address these challenges, we introduce an unsupervised disentangled representation learning framework, Style-based Edge-augmented Variational Graph Auto-Encoder (SE-VGAE), aiming to generate architectural layout in the form of attributed adjacency multi-graphs while prioritizing representation disentanglement. The framework is designed with three alternative pipelines, each integrating a transformer-based edge-augmented encoder, a latent space disentanglement module, and a style-based decoder. These components collectively facilitate the decomposition of latent factors influencing architectural layout graph generation, enhancing generation fidelity and diversity. We also provide insights into optimizing the framework by systematically exploring graph feature augmentation schemes and evaluating their effectiveness for disentangling architectural layout representation through extensive experiments. Additionally, we contribute a new benchmark large-scale architectural layout graph dataset extracted from real-world floor plan images to facilitate the exploration of graph data-based architectural design representation space interpretation. This study pioneered disentangled representation learning for the architectural layout graph generation. The code and dataset of this study will be open-sourced.
- Abstract(参考訳): アーキテクチャレイアウト設計に固有の関係構造を捉えるためのグラフの適合性にもかかわらず、グラフに基づく表現学習とアーキテクチャ設計グラフ生成の探索によるアーキテクチャ設計空間の解釈に関する研究は注目に値する。
同時に、グラフ生成における不整合表現学習は、ノード置換不変性や表現表現性といった課題に直面している。
これらの課題に対処するために,非教師付き非教師付き非教師付き非教師付き表現学習フレームワークであるスタイルベースエッジ拡張変分グラフオートエンコーダ(SE-VGAE)を導入する。
このフレームワークは3つの代替パイプラインで設計されており、それぞれがトランスフォーマーベースのエッジ拡張エンコーダ、潜在空間のアンタングルモジュール、スタイルベースのデコーダを統合している。
これらのコンポーネントは、アーキテクチャレイアウトグラフ生成に影響を及ぼす潜在因子の分解を促進し、生成の忠実度と多様性を高める。
また、グラフ特徴拡張スキームを体系的に探索し、広範囲な実験を通してアーキテクチャレイアウト表現をアンタングする上での有効性を評価することにより、フレームワークの最適化に関する洞察を提供する。
さらに,実際のフロアプラン画像から抽出した大規模アーキテクチャレイアウトグラフデータセットのベンチマークを提供し,グラフデータに基づくアーキテクチャ設計表現空間の解釈を容易にする。
本研究はアーキテクチャレイアウトグラフ生成のための非絡み合い表現学習の先駆者である。
この研究のコードとデータセットはオープンソースになる予定だ。
関連論文リスト
- LEGO-GraphRAG: Modularizing Graph-based Retrieval-Augmented Generation for Design Space Exploration [18.649082227637066]
GraphRAGは、大規模言語モデル(LLM)の推論能力を高めるために、グラフを組込み知識で活用することで、検索拡張生成(RAG)における課題に対処する。
有望な可能性にもかかわらず、GraphRAGコミュニティは現在、グラフベースの知識検索プロセスのきめ細かい分解のための統一されたフレームワークを欠いている。
LEGO-GraphRAGは,GraphRAGの検索プロセスを3つの相互接続モジュールに分解するモジュールフレームワークである。
論文 参考訳(メタデータ) (2024-11-06T15:32:28Z) - GraphCroc: Cross-Correlation Autoencoder for Graph Structural Reconstruction [6.817416560637197]
グラフオートエンコーダ(GAE)はノード埋め込みからグラフ構造を再構築する。
我々はGAE表現能力を著しく向上する相互相関機構を導入する。
また、さまざまな下流タスクに適したフレキシブルエンコーダアーキテクチャをサポートする新しいGAEであるGraphCrocを提案する。
論文 参考訳(メタデータ) (2024-10-04T12:59:45Z) - Unsupervised Graph Neural Architecture Search with Disentangled
Self-supervision [51.88848982611515]
教師なしグラフニューラルアーキテクチャサーチは、文献では未発見のままである。
本稿では,Distangled Self-supervised Graph Neural Architecture Searchモデルを提案する。
我々のモデルは、教師なしの方法で、いくつかのベースライン手法に対して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-03-08T05:23:55Z) - Self-supervised Photographic Image Layout Representation Learning [5.009120058742792]
我々は,不均一なレイアウトグラフを正確に,次元的に再現されたレイアウト表現に圧縮する,オートエンコーダに基づくネットワークアーキテクチャを開発した。
より広い範囲のレイアウトカテゴリとよりリッチなセマンティクスを備えたLODBデータセットを紹介します。
このデータセットに対する広範な実験は、写真画像レイアウト表現学習の領域における我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-03-06T14:28:53Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Equivariant Neural Operator Learning with Graphon Convolution [12.059797539633506]
本稿では3次元ユークリッド空間における連続関数間の写像を学習するための学習係数スキームと残留演算子層を結合した一般アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-17T23:28:22Z) - Enhancing Visually-Rich Document Understanding via Layout Structure
Modeling [91.07963806829237]
レイアウトの知識をモデルに注入する新しい文書理解モデルであるGraphLMを提案する。
我々は、FUNSD、XFUND、CORDなど様々なベンチマークでモデルを評価し、最先端の結果を得た。
論文 参考訳(メタデータ) (2023-08-15T13:53:52Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - House-GAN: Relational Generative Adversarial Networks for
Graph-constrained House Layout Generation [59.86153321871127]
主な考え方は、制約をリレーショナルネットワークのグラフ構造にエンコードすることである。
我々は、新しい住宅レイアウト生成問題に対する提案されたアーキテクチャを実証した。
論文 参考訳(メタデータ) (2020-03-16T03:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。