論文の概要: Categorical Equivariant Deep Learning: Category-Equivariant Neural Networks and Universal Approximation Theorems
- arxiv url: http://arxiv.org/abs/2511.18417v1
- Date: Sun, 23 Nov 2025 12:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.832119
- Title: Categorical Equivariant Deep Learning: Category-Equivariant Neural Networks and Universal Approximation Theorems
- Title(参考訳): カテゴリー同変ディープラーニング:カテゴリー同変ニューラルネットワークと普遍近似理論
- Authors: Yoshihiro Maruyama,
- Abstract要約: 我々は、カテゴリー同変ニューラルネットワーク(CENN)の理論を開発する。
CENNはグループ/グループ-同変ネットワーク、ポーズ/格子-同変ネットワーク、グラフとせん断ニューラルネットワークを統一する。
グループ/グループ、ポーズ/ラテックス、グラフ、セルシーブのフレームワークをインスタンス化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a theory of category-equivariant neural networks (CENNs) that unifies group/groupoid-equivariant networks, poset/lattice-equivariant networks, graph and sheaf neural networks. Equivariance is formulated as naturality in a topological category with Radon measures, formulating linear and nonlinear layers in the categorical setup. We prove the equivariant universal approximation theorem in the general setting: the class of finite-depth CENNs is dense in the space of continuous equivariant transformations. We instantiate the framework for groups/groupoids, posets/lattices, graphs and cellular sheaves, deriving universal approximation theorems for them in a systematic manner. Categorical equivariant deep learning thus allows us to expand the horizons of equivariant deep learning beyond group actions, encompassing not only geometric symmetries but also contextual and compositional symmetries.
- Abstract(参考訳): 本稿では,グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・グループ・
等分散は、ラドン測度を持つ位相圏において自然性として定式化され、カテゴリー構成における線形層と非線形層を定式化する。
一般設定において同変普遍近似定理を証明し、有限深度CENNの類は連続同変変換の空間において密である。
グループ/群、ポーズ/格子、グラフ、セルラーシーブの枠組みをインスタンス化し、それらに対する普遍近似定理を体系的な方法で導出する。
したがって、分類的同変深層学習は、群作用を超えて同変深部学習の地平線を拡大することができ、幾何学的対称性だけでなく、文脈的および構成的対称性も含む。
関連論文リスト
- Equivariant non-linear maps for neural networks on homogeneous spaces [8.944149301388551]
等質空間上の非線形同変ニューラルネットワーク層に対する新しい枠組みを提案する。
我々は、そのような層が満たさなければならない一般化されたステアビリティ制約を導出する。
複数の共通同変ネットワークアーキテクチャが我々のフレームワークからどのように派生するかを実証する。
論文 参考訳(メタデータ) (2025-04-29T17:42:56Z) - Learning Chern Numbers of Topological Insulators with Gauge Equivariant Neural Networks [14.739095503241849]
我々は、トポロジカル凝縮物質物理学の理論におけるゲージ-等変ネットワークの新しい応用領域を導入する。
ゲージ同変ネットワークを用いて、多バンドトポロジカル絶縁体のトポロジ的不変量(チャーン数)を予測する。
自明なチャーン数を持つサンプルをトレーニングするが、我々のモデルは非自明なチャーン数を持つサンプルに一般化することを示す。
論文 参考訳(メタデータ) (2025-02-21T11:00:34Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - A tradeoff between universality of equivariant models and learnability
of symmetries [0.0]
特定の条件下で対称性と関数を同時に学習することは不可能であることを示す。
我々は、ニューラルネットワークの特定のファミリーを分析し、それらが不合理な結果の条件を満たすかどうかを判断する。
実用面では、グループ畳み込みニューラルネットワークの分析により、よく知られた畳み込みを一般化することができる。
論文 参考訳(メタデータ) (2022-10-17T21:23:22Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Coordinate Independent Convolutional Networks -- Isometry and Gauge
Equivariant Convolutions on Riemannian Manifolds [70.32518963244466]
平坦空間と比較して大きな複雑さは、コンボリューション核が多様体にどのようなアライメントを適用するべきかが不明確であることである。
コーディネート化の特定の選択は、ネットワークの推論に影響を与えるべきではない、と我々は主張する。
座標独立と重み共有の同時要求は、ネットワーク上の同変要求をもたらす。
論文 参考訳(メタデータ) (2021-06-10T19:54:19Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - Universal Approximation Theorem for Equivariant Maps by Group CNNs [14.810452619505137]
本稿では,CNNによる同値写像の普遍近似定理の統一手法を提案する。
その大きな利点として、非コンパクト群に対する無限次元空間間の非線形同変写像を扱うことができる。
論文 参考訳(メタデータ) (2020-12-27T07:09:06Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。