論文の概要: An Algebraic Representation Theorem for Linear GENEOs in Geometric Machine Learning
- arxiv url: http://arxiv.org/abs/2601.03910v1
- Date: Wed, 07 Jan 2026 13:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.200357
- Title: An Algebraic Representation Theorem for Linear GENEOs in Geometric Machine Learning
- Title(参考訳): 幾何学機械学習における線形GAEOの代数的表現理論
- Authors: Francesco Conti, Patrizio Frosini, Nicola Quercioli,
- Abstract要約: 群同変非拡張作用素 (genEOs) は対称性を符号化する強力な作用素のクラスとして登場した。
異なる知覚対の間に作用する線形なgenEOに対する新しい表現定理を導入する。
また、線型genEOsの空間のコンパクト性と凸性も証明する。
- 参考スコア(独自算出の注目度): 1.3425748364842416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geometric and Topological Deep Learning are rapidly growing research areas that enhance machine learning through the use of geometric and topological structures. Within this framework, Group Equivariant Non-Expansive Operators (GENEOs) have emerged as a powerful class of operators for encoding symmetries and designing efficient, interpretable neural architectures. Originally introduced in Topological Data Analysis, GENEOs have since found applications in Deep Learning as tools for constructing equivariant models with reduced parameter complexity. GENEOs provide a unifying framework bridging Geometric and Topological Deep Learning and include the operator computing persistence diagrams as a special case. Their theoretical foundations rely on group actions, equivariance, and compactness properties of operator spaces, grounding them in algebra and geometry while enabling both mathematical rigor and practical relevance. While a previous representation theorem characterized linear GENEOs acting on data of the same type, many real-world applications require operators between heterogeneous data spaces. In this work, we address this limitation by introducing a new representation theorem for linear GENEOs acting between different perception pairs, based on generalized T-permutant measures. Under mild assumptions on the data domains and group actions, our result provides a complete characterization of such operators. We also prove the compactness and convexity of the space of linear GENEOs. We further demonstrate the practical impact of this theory by applying the proposed framework to improve the performance of autoencoders, highlighting the relevance of GENEOs in modern machine learning applications.
- Abstract(参考訳): 幾何学的および位相的深層学習は、幾何学的および位相的構造を用いて機械学習を強化する研究領域が急速に成長している。
このフレームワークの中で、グループ同変非拡張演算子(GENEOs)は、対称性を符号化し、効率的な解釈可能なニューラルネットワークを設計するための強力な演算子クラスとして登場した。
もともとトポロジカルデータ分析で導入されたgenEOは、パラメータの複雑さを減らした同変モデルを構築するためのツールとしてDeep Learningに応用されている。
genEOsは、Geometric and Topological Deep Learningをブリッジする統一フレームワークを提供し、特別なケースとして演算子コンピューティング永続化図を含む。
それらの理論的な基礎は、作用素空間の群作用、同値性、コンパクト性に頼り、数学的な厳密さと実践的妥当性を両立させながら、代数と幾何学に基礎を置いている。
以前の表現定理では、同じタイプのデータに作用する線形 GENEO が特徴的であるが、多くの実世界のアプリケーションは不均一なデータ空間間の演算子を必要とする。
本研究では、一般化されたT-置換測度に基づいて、異なる知覚対の間に作用する線形なgenEOに対する新しい表現定理を導入することにより、この制限に対処する。
データドメインとグループアクションに関する軽度な仮定の下で、この結果はそのような演算子の完全な特徴付けを提供する。
また、線型genEOsの空間のコンパクト性と凸性も証明する。
さらに,提案手法を適用し,自動エンコーダの性能向上を図り,現代の機械学習アプリケーションにおけるGENEOの関連性を強調した。
関連論文リスト
- Geometric Laplace Neural Operator [12.869633759181417]
本稿では指数基底関数に富んだ極-極分解に基づく一般化された演算子学習フレームワークを提案する。
本稿では,ラプラススペクトル表現をラプラス・ベルトラミ作用素の固有基底に埋め込んだGLNO(Geometric Laplace Neural Operator)を紹介する。
さらに,実際にGLNOを実現するグリッド不変ネットワークアーキテクチャ(GLNONet)を設計する。
論文 参考訳(メタデータ) (2025-12-18T11:07:41Z) - GeoGNN: Quantifying and Mitigating Semantic Drift in Text-Attributed Graphs [59.61242815508687]
テキスト分散グラフ(TAG)上のグラフニューラルネットワーク(GNN)は、事前訓練された言語モデル(PLM)を使用してノードテキストを符号化し、これらの埋め込みを線形近傍アグリゲーションを通じて伝播する。
本研究は,意味的ドリフトの度合いを計測する局所PCAベースの計量を導入し,異なる凝集機構が多様体構造にどのように影響するかを解析するための最初の定量的枠組みを提供する。
論文 参考訳(メタデータ) (2025-11-12T06:48:43Z) - Learning Geometry: A Framework for Building Adaptive Manifold Models through Metric Optimization [8.201374511929538]
本稿では,従来のパラメータ最適化を超越した機械学習のパラダイムを提案する。
既定位相を持つ多様体上の計量テンソル場を最適化することにより、モデル空間の幾何学的構造を動的に形成する。
この研究は、その幾何学とトポロジーを自律的に進化させることができる完全にダイナミックな「メタ・ラーナー」を構築するための確固たる基礎を築いた。
論文 参考訳(メタデータ) (2025-10-30T01:53:32Z) - Understanding In-Context Learning on Structured Manifolds: Bridging Attention to Kernel Methods [45.94152084965753]
我々は,アテンション機構と古典的カーネル手法の新たな接続を確立する。
トレーニングタスクの即時長と数の観点から一般化誤差境界を導出する。
この結果から, 一般化誤差がトレーニングタスク数でどのようにスケールするかを特徴付ける。
論文 参考訳(メタデータ) (2025-06-12T17:56:26Z) - Geometry of the Space of Partitioned Networks: A Unified Theoretical and Computational Framework [3.69102525133732]
ネットワークの空間」は、従来の統計ツールでは適切に記述できない複雑な構造を持つ。
本稿では,グラフやハイパーグラフ,あるいはノードが分類クラスに分割されたグラフなどの一般化されたネットワーク構造をモデル化するための測度理論形式について紹介する。
我々は、我々の計量が非負曲率のアレクサンドロフ空間であることを示し、この構造を利用して、幾何データ解析タスクで一般的に生じる特定の関数の勾配を定義する。
論文 参考訳(メタデータ) (2024-09-10T07:58:37Z) - Artificial Neural Networks on Graded Vector Spaces [0.0]
本稿では,次数ベクトル空間上での人工ニューラルネットワークの変換フレームワークを提案する。
我々は、構造的整合性を維持するため、古典的なニューラルネットワークをグレードされたニューロン、層、アクティベーション関数で拡張する。
ケーススタディでは、重み付き射影空間における不変量を予測するといったタスクにおいて、標準ニューラルネットワークよりも優れた、フレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-07-26T18:17:58Z) - (Deep) Generative Geodesics [57.635187092922976]
2つのデータポイント間の類似性を評価するために,新しい測定基準を導入する。
我々の計量は、生成距離と生成測地学の概念的定義に繋がる。
彼らの近似は、穏やかな条件下で真の値に収束することが証明されている。
論文 参考訳(メタデータ) (2024-07-15T21:14:02Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。