論文の概要: HodgeFormer: Transformers for Learnable Operators on Triangular Meshes through Data-Driven Hodge Matrices
- arxiv url: http://arxiv.org/abs/2509.01839v3
- Date: Tue, 09 Sep 2025 07:53:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 12:33:22.791657
- Title: HodgeFormer: Transformers for Learnable Operators on Triangular Meshes through Data-Driven Hodge Matrices
- Title(参考訳): HodgeFormer: データ駆動型ホッジ行列による三角形メッシュ上での学習可能な演算子変換
- Authors: Akis Nousias, Stavros Nousias,
- Abstract要約: 形状解析のためのトランスフォーマーアーキテクチャは、現在コストのかかる固有値分解に基づく手法に依存している。
本稿では,離散エクステリア計算におけるHodge Laplacian演算子の明示的な構成に着想を得た新しいアプローチを提案する。
提案手法は,直接学習フレームワークを用いて,メッシュセグメンテーションと分類タスクにおいて同等のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.34376560669160394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Currently, prominent Transformer architectures applied on graphs and meshes for shape analysis tasks employ traditional attention layers that heavily utilize spectral features requiring costly eigenvalue decomposition-based methods. To encode the mesh structure, these methods derive positional embeddings, that heavily rely on eigenvalue decomposition based operations, e.g. on the Laplacian matrix, or on heat-kernel signatures, which are then concatenated to the input features. This paper proposes a novel approach inspired by the explicit construction of the Hodge Laplacian operator in Discrete Exterior Calculus as a product of discrete Hodge operators and exterior derivatives, i.e. $(L := \star_0^{-1} d_0^T \star_1 d_0)$. We adjust the Transformer architecture in a novel deep learning layer that utilizes the multi-head attention mechanism to approximate Hodge matrices $\star_0$, $\star_1$ and $\star_2$ and learn families of discrete operators $L$ that act on mesh vertices, edges and faces. Our approach results in a computationally-efficient architecture that achieves comparable performance in mesh segmentation and classification tasks, through a direct learning framework, while eliminating the need for costly eigenvalue decomposition operations or complex preprocessing operations.
- Abstract(参考訳): 現在、形状解析タスクのためにグラフやメッシュに適用された著名なTransformerアーキテクチャは、コストのかかる固有値分解に基づく手法を必要とするスペクトル特徴を多用した従来の注意層を採用している。
メッシュ構造を符号化するために、これらの手法は固有値分解に基づく演算、例えばラプラシア行列や熱カーネルシグネチャに大きく依存する位置埋め込みを導出し、入力特徴と結合する。
本稿では,離散Hodge作用素と外微分の積として,離散Exterior CalculusにおけるHodge Laplacian作用素の明示的な構成から着想を得た,新たなアプローチを提案する。
マルチヘッドアテンション機構を利用して,Hodge行列を近似した新しいディープラーニング層でTransformerアーキテクチャを調整し,メッシュ頂点,エッジ,顔に作用する離散演算子のファミリーを学習する。
提案手法は,高コストな固有値分解操作や複雑な前処理操作を不要にしつつ,直接学習フレームワークを通じて,メッシュセグメンテーションや分類タスクにおいて同等のパフォーマンスを実現する計算効率の高いアーキテクチャを実現する。
関連論文リスト
- Normalizing Diffusion Kernels with Optimal Transport [4.081238502499229]
ラプラシアンから望ましい性質を継承する滑らかな作用素のクラスを導入する。
この構造により、ラプラシア風の平滑化と不規則データの処理が可能となる。
得られた演算子は熱拡散を近似するが、ラプラシアン自体のスペクトル情報も保持する。
論文 参考訳(メタデータ) (2025-07-08T16:42:09Z) - Optimal Symbolic Construction of Matrix Product Operators and Tree Tensor Network Operators [0.0]
本研究では,行列積演算子(MPO)とツリーテンソルネットワーク演算子(TTNO)を構築するための改良されたフレームワークを提案する。
与えられた(ハミルトニアン)作用素は典型的には、テンソルネットワーク構造に変換できる「作用素弦の和」形式の既知の記号を持つ。
論文 参考訳(メタデータ) (2025-02-25T20:33:30Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers [54.20763128054692]
我々は,2層変換器が$n$-gramのマルコフ連鎖データ上でICLを実行するためにどのように訓練されているかを検討する。
クロスエントロピー ICL 損失に対する勾配流が極限モデルに収束することを証明する。
論文 参考訳(メタデータ) (2024-09-09T18:10:26Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Augmentation of the Reconstruction Performance of Fuzzy C-Means with an
Optimized Fuzzification Factor Vector [99.19847674810079]
Fuzzy C-Means (FCM) は情報グラニュラーを構成する最も頻繁に使用される手法の1つである。
本稿では, ファジィ化因子のベクトルを導入することにより, FCMに基づく脱顆粒機構を増強する。
合成データセットと公開データセットの両方で実験が完了し、提案手法が汎用データ再構成手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-04-13T04:17:30Z) - Supervised Quantile Normalization for Low-rank Matrix Approximation [50.445371939523305]
我々は、$X$ の値と $UV$ の値を行ワイズで操作できる量子正規化演算子のパラメータを学習し、$X$ の低ランク表現の質を改善する。
本稿では,これらの手法が合成およびゲノムデータセットに適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-02-08T21:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。