論文の概要: BIGNet: Pretrained Graph Neural Network for Embedding Semantic, Spatial, and Topological Data in BIM Models
- arxiv url: http://arxiv.org/abs/2509.11104v1
- Date: Sun, 14 Sep 2025 05:43:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.920938
- Title: BIGNet: Pretrained Graph Neural Network for Embedding Semantic, Spatial, and Topological Data in BIM Models
- Title(参考訳): BIGNet:BIMモデルにおける意味的・空間的・トポロジ的データの埋め込みのための事前学習グラフニューラルネットワーク
- Authors: Jin Han, Xin-Zheng Lu, Jia-Rui Lin,
- Abstract要約: 本研究では,BIMモデルに埋め込まれた多次元設計特徴を学習し,再利用するための,最初の大規模グラフニューラルネットワークBIGNetを開発した。
その結果,1) 同種グラフ表現は, 学習設計における異種グラフよりも優れ, 2) 半径30cmの局所空間関係を考えると, 性能が向上し, 3) GATに基づく特徴抽出によるBIGNetは, 最高の伝達学習結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 4.4136812699949
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Foundation Models (LFMs) have demonstrated significant advantages in civil engineering, but they primarily focus on textual and visual data, overlooking the rich semantic, spatial, and topological features in BIM (Building Information Modelling) models. Therefore, this study develops the first large-scale graph neural network (GNN), BIGNet, to learn, and reuse multidimensional design features embedded in BIM models. Firstly, a scalable graph representation is introduced to encode the "semantic-spatial-topological" features of BIM components, and a dataset with nearly 1 million nodes and 3.5 million edges is created. Subsequently, BIGNet is proposed by introducing a new message-passing mechanism to GraphMAE2 and further pretrained with a node masking strategy. Finally, BIGNet is evaluated in various transfer learning tasks for BIM-based design checking. Results show that: 1) homogeneous graph representation outperforms heterogeneous graph in learning design features, 2) considering local spatial relationships in a 30 cm radius enhances performance, and 3) BIGNet with GAT (Graph Attention Network)-based feature extraction achieves the best transfer learning results. This innovation leads to a 72.7% improvement in Average F1-score over non-pretrained models, demonstrating its effectiveness in learning and transferring BIM design features and facilitating their automated application in future design and lifecycle management.
- Abstract(参考訳): 大きな基礎モデル(LFM)は土木工学において大きな優位性を示しているが、主にテキストと視覚データに焦点を当て、BIM(Building Information Modelling)モデルにおけるリッチな意味論、空間的、トポロジ的特徴を見渡す。
そこで本研究では,BIMモデルに埋め込まれた多次元設計特徴を学習し,再利用するための,最初の大規模グラフニューラルネットワークであるBIGNetを開発した。
まず、BIMコンポーネントの「意味空間トポロジ」機能を符号化するためにスケーラブルなグラフ表現を導入し、100万近いノードと350万のエッジを持つデータセットを作成する。
その後、BIGNetはGraphMAE2に新しいメッセージパッシング機構を導入し、ノードマスキング戦略で事前訓練することで提案される。
最後に、BIGNetは、BIMに基づく設計チェックのための様々な伝達学習タスクで評価される。
結果は以下のとおりである。
1)均質なグラフ表現は、学習設計の特徴において異質なグラフよりも優れる。
2 半径30cmの局所的空間関係を考えると、性能が向上し、
3) BIGNet with GAT (Graph Attention Network) を用いた特徴抽出は,最高の伝達学習結果が得られる。
この革新は、非事前のモデルよりも平均F1スコアが72.7%向上し、BIM設計の特徴を学習し、移譲し、将来の設計とライフサイクル管理において自動化されたアプリケーションを促進する効果を実証した。
関連論文リスト
- Mamba-Based Graph Convolutional Networks: Tackling Over-smoothing with Selective State Space [33.677431350509224]
本稿では,Mambaパラダイムからインスピレーションを得た新しいグラフ畳み込みアーキテクチャであるMbaGCNを紹介する。
MbaGCNは、Message Aggregation Layer、Selective State Space Transition Layer、Node State Prediction Layerという3つの重要なコンポーネントで構成されるGNNの新しいバックボーンを提供する。
論文 参考訳(メタデータ) (2025-01-26T09:09:44Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Graph Property Prediction on Open Graph Benchmark: A Winning Solution by
Graph Neural Architecture Search [37.89305885538052]
PAS(Pooling Architecture Search)を導入してグラフ分類タスクのためのグラフニューラルネットワークフレームワークを設計する。
本稿では,GNNトポロジ設計手法であるF2GNNに基づいて改良を行い,グラフ特性予測タスクにおけるモデルの性能をさらに向上させる。
NAS法は,複数のタスクに対して高い一般化能力を有し,グラフ特性予測タスクの処理における本手法の利点が証明された。
論文 参考訳(メタデータ) (2022-07-13T08:17:48Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。