論文の概要: Directional Non-Commutative Monoidal Structures with Interchange Law via Commutative Generators
- arxiv url: http://arxiv.org/abs/2505.24533v1
- Date: Fri, 30 May 2025 12:40:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.949243
- Title: Directional Non-Commutative Monoidal Structures with Interchange Law via Commutative Generators
- Title(参考訳): 交換法則をもつ指向性非可換モノイド構造
- Authors: Mahesh Godavarti,
- Abstract要約: 一次元モノイド系を高次元に一般化する代数構造群を導入する。
本稿では,信号処理とデータ解析において,よく知られた線形変換を統一するフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce a novel framework consisting of a class of algebraic structures that generalize one-dimensional monoidal systems into higher dimensions by defining per-axis composition operators subject to non-commutativity and a global interchange law. These structures, defined recursively from a base case of vector-matrix pairs, model directional composition in multiple dimensions while preserving structural coherence through commutative linear operators. We show that the framework that unifies several well-known linear transforms in signal processing and data analysis. In this framework, data indices are embedded into a composite structure that decomposes into simpler components. We show that classic transforms such as the Discrete Fourier Transform (DFT), the Walsh transform, and the Hadamard transform are special cases of our algebraic structure. The framework provides a systematic way to derive these transforms by appropriately choosing vector and matrix pairs. By subsuming classical transforms within a common structure, the framework also enables the development of learnable transformations tailored to specific data modalities and tasks.
- Abstract(参考訳): 非可換性および大域的交換法則の対象となる軸あたりの合成作用素を定義することにより、一次元モノイダルシステムを高次元に一般化する代数構造からなる新しい枠組みを導入する。
これらの構造はベクトル行列対の基底の場合から再帰的に定義され、可換線型作用素を通して構造的コヒーレンスを保ちながら、多次元のモデル方向合成である。
本稿では,信号処理とデータ解析において,よく知られた線形変換を統一するフレームワークについて述べる。
このフレームワークでは、データインデックスが複合構造に埋め込まれ、より単純なコンポーネントに分解される。
我々は、離散フーリエ変換(DFT)、ウォルシュ変換、アダマール変換などの古典変換が、我々の代数構造の特別な場合であることを示す。
このフレームワークはベクトル対と行列対を適切に選択することでこれらの変換を導出する体系的な方法を提供する。
共通構造内で古典変換を仮定することにより、このフレームワークは特定のデータモダリティやタスクに適した学習可能な変換の開発を可能にする。
関連論文リスト
- Directional Non-Commutative Monoidal Structures for Compositional Embeddings in Machine Learning [0.0]
指向性非可換モノイド作用素上に構築された合成埋め込みのための新しい構造を導入する。
我々の構成では、各軸 i に対して異なる合成演算子 circ_i を定義し、大域的な可換性を与えることなく、各軸に沿って連想結合を保証する。
すべての軸特異作用素は互いに可換であり、一貫した交叉軸合成を可能にする大域的交換法則を強制する。
論文 参考訳(メタデータ) (2025-05-21T13:27:14Z) - EqNIO: Subequivariant Neural Inertial Odometry [33.96552018734359]
重力ベクトルの周りで回転すると、IMUデータは等変的に変形し、重力に平行な任意の平面に対して反射することを示す。
そして、IMUデータをこのフレームにマッピングし、既製の慣性オドメトリーネットワークで直接使用できる不変な正準化を実現する。
論文 参考訳(メタデータ) (2024-08-12T17:42:46Z) - Strengthening Structural Inductive Biases by Pre-training to Perform Syntactic Transformations [75.14793516745374]
中間学習によりトランスフォーマーの構造的帰納バイアスを強化することを提案する。
実験の結果,チャンキングなどの構文的タスクのわずかな学習に有効であることが確認された。
分析の結果,中間的事前学習は,どのトークンにシナティクス変換を適用する必要があるかを追尾する注意を喚起することが明らかとなった。
論文 参考訳(メタデータ) (2024-07-05T14:29:44Z) - Inducing Systematicity in Transformers by Attending to Structurally
Quantized Embeddings [60.698130703909804]
トランスフォーマーは、複雑なデータセットでトレーニングされた後、構造と実体の新規な構成に一般化する。
本稿では,SQ-Transformerを提案する。
SQ-Transformerは,複数の低複雑さ意味解析および機械翻訳データセット上で,バニラ変換器よりも強い構成一般化を実現することを示す。
論文 参考訳(メタデータ) (2024-02-09T15:53:15Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Similarity Equivariant Linear Transformation of Joint Orientation-Scale
Space Representations [11.57423546614283]
群畳み込みは線型作用素の概念を一般化する。
類似性変換に同値な群畳み込みは、最も一般的な形状保存線形作用素である。
そこで本研究では,ブラウン運動を受ける粒子が追従する閉じた輪郭の形状同変分布を計算し,その実用性を実証する。
論文 参考訳(メタデータ) (2022-03-13T23:53:51Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。