論文の概要: HodgeFormer: Transformers for Learnable Operators on Triangular Meshes through Data-Driven Hodge Matrices
- arxiv url: http://arxiv.org/abs/2509.01839v4
- Date: Tue, 30 Sep 2025 20:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.730388
- Title: HodgeFormer: Transformers for Learnable Operators on Triangular Meshes through Data-Driven Hodge Matrices
- Title(参考訳): HodgeFormer: データ駆動型ホッジ行列による三角形メッシュ上での学習可能な演算子変換
- Authors: Akis Nousias, Stavros Nousias,
- Abstract要約: 形状解析のためのトランスフォーマーアーキテクチャは、現在コストのかかる固有値分解に基づく手法に依存している。
本稿では,離散エクステリア計算におけるHodge Laplacian演算子の明示的な構成に着想を得た新しいアプローチを提案する。
提案手法は,直接学習フレームワークを用いて,メッシュセグメンテーションと分類タスクにおいて同等のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.34376560669160394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Currently, prominent Transformer architectures applied on graphs and meshes for shape analysis tasks employ traditional attention layers that heavily utilize spectral features requiring costly eigenvalue decomposition-based methods. To encode the mesh structure, these methods derive positional embeddings, that heavily rely on eigenvalue decomposition based operations, e.g. on the Laplacian matrix, or on heat-kernel signatures, which are then concatenated to the input features. This paper proposes a novel approach inspired by the explicit construction of the Hodge Laplacian operator in Discrete Exterior Calculus as a product of discrete Hodge operators and exterior derivatives, i.e. $(L := \star_0^{-1} d_0^T \star_1 d_0)$. We adjust the Transformer architecture in a novel deep learning layer that utilizes the multi-head attention mechanism to approximate Hodge matrices $\star_0$, $\star_1$ and $\star_2$ and learn families of discrete operators $L$ that act on mesh vertices, edges and faces. Our approach results in a computationally-efficient architecture that achieves comparable performance in mesh segmentation and classification tasks, through a direct learning framework, while eliminating the need for costly eigenvalue decomposition operations or complex preprocessing operations.
- Abstract(参考訳): 現在、形状解析タスクのためにグラフやメッシュに適用された著名なTransformerアーキテクチャは、コストのかかる固有値分解に基づく手法を必要とするスペクトル特徴を多用した従来の注意層を採用している。
メッシュ構造を符号化するために、これらの手法は固有値分解に基づく演算、例えばラプラシア行列や熱カーネルシグネチャに大きく依存する位置埋め込みを導出し、入力特徴と結合する。
本稿では,離散Hodge作用素と外微分の積として,離散Exterior CalculusにおけるHodge Laplacian作用素の明示的な構成から着想を得た,新たなアプローチを提案する。
マルチヘッドアテンション機構を利用して,Hodge行列を近似した新しいディープラーニング層でTransformerアーキテクチャを調整し,メッシュ頂点,エッジ,顔に作用する離散演算子のファミリーを学習する。
提案手法は,高コストな固有値分解操作や複雑な前処理操作を不要にしつつ,直接学習フレームワークを通じて,メッシュセグメンテーションや分類タスクにおいて同等のパフォーマンスを実現する計算効率の高いアーキテクチャを実現する。
関連論文リスト
- Block encoding of sparse matrices with a periodic diagonal structure [67.45502291821956]
周期的な対角構造を持つスパース行列を符号化するための明示的な量子回路を提供する。
本手法の様々な応用は, 微分問題を解く文脈で論じる。
論文 参考訳(メタデータ) (2026-02-11T07:24:33Z) - Deep Delta Learning [91.75868893250662]
本稿では,標準残差接続を一般化した新しいアーキテクチャであるDeep Delta Learning(DDL)を紹介する。
我々はこの演算子のスペクトル解析を行い、ゲート$(mathbfX)$がアイデンティティマッピング、投影、幾何反射のダイナミックな相互作用を可能にすることを示した。
この統合により、ネットワークは階層的な遷移作用素のスペクトルを明示的に制御することができ、複雑な非単調力学のモデリングを可能にする。
論文 参考訳(メタデータ) (2026-01-01T18:11:38Z) - Learning Eigenstructures of Unstructured Data Manifolds [47.81117132002129]
非構造化データから形状と多様体解析のスペクトル基底を学習する新しいフレームワークを提案する。
従来の演算子選択,構築,固有分解を学習に基づくアプローチで置き換えることによって,我々のフレームワークは従来のパイプラインに代わる,原則的,データ駆動的な代替手段を提供する。
論文 参考訳(メタデータ) (2025-11-30T22:06:49Z) - Normalizing Diffusion Kernels with Optimal Transport [4.081238502499229]
ラプラシアンから望ましい性質を継承する滑らかな作用素のクラスを導入する。
この構造により、ラプラシア風の平滑化と不規則データの処理が可能となる。
得られた演算子は熱拡散を近似するが、ラプラシアン自体のスペクトル情報も保持する。
論文 参考訳(メタデータ) (2025-07-08T16:42:09Z) - Equivalent Linear Mappings of Large Language Models [0.5076419064097734]
我々は変換器の特性を利用して全ての演算を$A(x) cdot x$と表現し、$A(x)$は入力依存の線形変換を表し、$x$は線形経路を保存する。
この線形構造を公開するために、入力シーケンスに関して勾配の成分を戦略的に切り離し、推論中に計算された値で$A(x)$項を凍結する。
この分離されたヤコビアンは入力トークンごとに1つの線形作用素で出力を再構成し、これは Qwen 3 と Gemma 3 と Llama 3 に対して Qwen 3 14B まで示される。
論文 参考訳(メタデータ) (2025-05-30T07:08:33Z) - Optimal Symbolic Construction of Matrix Product Operators and Tree Tensor Network Operators [0.0]
本研究では,行列積演算子(MPO)とツリーテンソルネットワーク演算子(TTNO)を構築するための改良されたフレームワークを提案する。
与えられた(ハミルトニアン)作用素は典型的には、テンソルネットワーク構造に変換できる「作用素弦の和」形式の既知の記号を持つ。
論文 参考訳(メタデータ) (2025-02-25T20:33:30Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers [54.20763128054692]
我々は,2層変換器が$n$-gramのマルコフ連鎖データ上でICLを実行するためにどのように訓練されているかを検討する。
クロスエントロピー ICL 損失に対する勾配流が極限モデルに収束することを証明する。
論文 参考訳(メタデータ) (2024-09-09T18:10:26Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Deep neural networks for inverse problems with pseudodifferential
operators: an application to limited-angle tomography [0.4110409960377149]
線形逆問題において擬微分演算子(Psi$DOs)を学習するための新しい畳み込みニューラルネットワーク(CNN)を提案する。
フォワード演算子のより一般的な仮定の下では、ISTAの展開された反復はCNNの逐次的な層として解釈できることを示す。
特に、LA-CTの場合、アップスケーリング、ダウンスケーリング、畳み込みの操作は、制限角X線変換の畳み込み特性とウェーブレット系を定義する基本特性を組み合わせることで正確に決定できることを示す。
論文 参考訳(メタデータ) (2020-06-02T14:03:41Z) - Augmentation of the Reconstruction Performance of Fuzzy C-Means with an
Optimized Fuzzification Factor Vector [99.19847674810079]
Fuzzy C-Means (FCM) は情報グラニュラーを構成する最も頻繁に使用される手法の1つである。
本稿では, ファジィ化因子のベクトルを導入することにより, FCMに基づく脱顆粒機構を増強する。
合成データセットと公開データセットの両方で実験が完了し、提案手法が汎用データ再構成手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-04-13T04:17:30Z) - Supervised Quantile Normalization for Low-rank Matrix Approximation [50.445371939523305]
我々は、$X$ の値と $UV$ の値を行ワイズで操作できる量子正規化演算子のパラメータを学習し、$X$ の低ランク表現の質を改善する。
本稿では,これらの手法が合成およびゲノムデータセットに適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-02-08T21:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。