論文の概要: Masked BRep Autoencoder via Hierarchical Graph Transformer
- arxiv url: http://arxiv.org/abs/2603.14927v2
- Date: Tue, 17 Mar 2026 03:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 13:19:43.954643
- Title: Masked BRep Autoencoder via Hierarchical Graph Transformer
- Title(参考訳): 階層グラフ変換器による仮設ブレープオートエンコーダ
- Authors: Yifei Li, Kang Wu, Wenming Wu, Xiao-Ming Fu,
- Abstract要約: 本稿では、下流タスクのための入力コンピュータ支援設計(CAD)モデルから表現を自動的に学習する、新しい自己教師型学習フレームワークを提案する。
ネットワークをトレーニングするために,大規模でラベルなしな境界表現データセット(BRep)を構築した。
我々は,少量のラベル付きデータであっても,様々なタスクで実験を行い,高い性能を達成する。
- 参考スコア(独自算出の注目度): 13.174300628873057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel self-supervised learning framework that automatically learns representations from input computer-aided design (CAD) models for downstream tasks, including part classification, modeling segmentation, and machining feature recognition. To train our network, we construct a large-scale, unlabeled dataset of boundary representation (BRep) models. The success of our algorithm relies on two keycomponents. The first is a masked graph autoencoder that reconstructs randomly masked geometries and attributes of BReps for representation learning to enhance the generalization. The second is a hierarchical graph Transformer architecture that elegantly fuses global and local learning by a cross-scale mutual attention block to model long-range geometric dependencies and a graph neural network block to aggregate local topological information. After training the autoencoder, we replace its decoder with a task-specific network trained on a small amount of labeled data for downstream tasks. We conduct experiments on various tasks and achieve high performance, even with a small amount of labeled data, demonstrating the practicality and generalizability of our model. Compared to other methods, our model performs significantly better on downstream tasks with the same amount of training data, particularly when the training data is very limited.
- Abstract(参考訳): 本稿では,入力されたコンピュータ支援設計(CAD)モデルから,部分分類,モデリングセグメンテーション,特徴認識などの下流タスクの表現を自動的に学習する,新しい自己教師型学習フレームワークを提案する。
ネットワークをトレーニングするために,大規模でラベルなしな境界表現データセット(BRep)を構築した。
アルゴリズムの成功は2つのキーコンポーネントに依存します。
1つ目はマスク付きグラフオートエンコーダで、BRepsの属性と無作為なマスク付きジオメトリを再構成して表現学習を行い、一般化を高める。
2つ目は階層的なグラフ変換アーキテクチャで、長距離幾何学的依存関係をモデル化するクロススケールな相互注意ブロックと、局所的なトポロジ情報を集約するグラフニューラルネットワークブロックによって、グローバルおよびローカルな学習をエレガントに融合する。
オートエンコーダをトレーニングした後、下流タスクのために少量のラベル付きデータに基づいてトレーニングされたタスク固有ネットワークに置き換える。
各種タスクの実験を行い、少量のラベル付きデータでも高い性能を達成し、モデルの実用性と一般化性を実証した。
他の手法と比較して、トレーニングデータが非常に限定されている場合、トレーニングデータと同じ量のダウンストリームタスクにおいて、我々のモデルは大幅に向上する。
関連論文リスト
- OFA-MAS: One-for-All Multi-Agent System Topology Design based on Mixture-of-Experts Graph Generative Models [57.94189874119267]
マルチエージェントシステム(MAS)は複雑な問題を解決するための強力なパラダイムを提供する。
現在のグラフ学習に基づく設計手法は、しばしば「1対1」のパラダイムに準拠している。
自然言語で記述されたタスクに対して適応的な協調グラフを生成する一対一のフレームワークOFA-TADを提案する。
論文 参考訳(メタデータ) (2026-01-19T12:23:44Z) - GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent
Space Reconstruction [76.35904458027694]
マスク付きオートエンコーダモデルは、グラフデータに対する優れた一般化能力に欠ける。
本稿では,GiGaMAEと呼ばれる新しいグラフマスマスキングオートエンコーダフレームワークを提案する。
私たちの結果は、グラフ構造化データに基づく基礎モデルの設計に光を当てます。
論文 参考訳(メタデータ) (2023-08-18T16:30:51Z) - Deep Feature Learning for Wireless Spectrum Data [0.5809784853115825]
本稿では,無線通信クラスタリングのための特徴表現を教師なしで学習する手法を提案する。
自動表現学習は,無線伝送バーストの形状を含む微細なクラスタを抽出できることを示す。
論文 参考訳(メタデータ) (2023-08-07T12:27:19Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Multi network InfoMax: A pre-training method involving graph
convolutional networks [0.0]
本稿では,グラフ畳み込み/ニューラルネットワーク(GCN/GNN)を含む事前学習手法を提案する。
学習された高レベルグラフ潜在表現は、下流グラフ分類タスクのパフォーマンス向上に役立つ。
我々は、被験者を健康管理群(HC)と統合失調症群(SZ)に分類するための神経画像データセットに適用した。
論文 参考訳(メタデータ) (2021-11-01T21:53:20Z) - A Variational Graph Autoencoder for Manipulation Action Recognition and
Prediction [1.1816942730023883]
シンボルシーングラフから操作タスクの認識と予測を共同で学習するディープグラフオートエンコーダを提案する。
我々のネットワークは2つの分岐を持つ変分オートエンコーダ構造を持ち、1つは入力グラフタイプを識別し、もう1つは将来のグラフを予測する。
提案手法は,MANIACとMSRC-9の2つの異なるデータセット上で異なる最先端手法に対してベンチマークを行い,提案手法がより優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2021-10-25T21:40:42Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。