論文の概要: Versor: A Geometric Sequence Architecture
- arxiv url: http://arxiv.org/abs/2602.10195v1
- Date: Tue, 10 Feb 2026 19:00:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.227409
- Title: Versor: A Geometric Sequence Architecture
- Title(参考訳): Versor: 幾何学的シーケンスアーキテクチャ
- Authors: Truong Minh Huy, Edward Hirst,
- Abstract要約: 従来の基本非線形演算の代わりにCGA(Conformal Geometric Algebra)を使用する新しいシーケンスアーキテクチャであるVersorが導入された。
VersorはカオスN体力学、トポロジカル推論、標準マルチモーダルベンチマークで検証されている。
- 参考スコア(独自算出の注目度): 0.0954904463032233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel sequence architecture design is introduced, Versor, which uses Conformal Geometric Algebra (CGA) in place of the traditional fundamental non-linear operations to achieve structural generalization and significant performance improvements on a variety of tasks, while offering improved interpretability and efficiency. By embedding states in the $Cl_{4,1}$ manifold and evolving them via geometric transformations (rotors), Versor natively represents $SE(3)$-equivariant relationships without requiring explicit structural encoding. Versor is validated on chaotic N-body dynamics, topological reasoning, and standard multimodal benchmarks (CIFAR-10, WikiText-103), consistently outperforming Transformers, Graph Networks, and geometric baselines (GATr, EGNN). Key results include: orders of magnitude fewer parameters ($200\times$ vs. Transformers); interpretable attention decomposing into proximity and orientational components; zero-shot scale generalization (99.3% MCC on topology vs. 50.4% for ViT); and $O(L)$ linear complexity via the novel Recursive Rotor Accumulator. In out-of-distribution tests, Versor maintains stable predictions while Transformers fail catastrophically. Custom Clifford kernels achieve up to $78\times$ speedup, providing a scalable foundation for geometrically-aware scientific modeling.
- Abstract(参考訳): 従来の基本的な非線形演算の代わりにConformal Geometric Algebra(CGA)を使用して、様々なタスクにおける構造的一般化と大幅なパフォーマンス向上を実現し、解釈性と効率の向上を実現した新しいシーケンスアーキテクチャ設計であるVersorが導入された。
Cl_{4,1}$多様体に状態を入れ、幾何変換(回転子)を通してそれらを進化させることで、Versor は明示的な構造的エンコーディングを必要としない$SE(3)$-同変関係をネイティブに表現する。
VersorはカオスNボディのダイナミクス、トポロジカル推論、標準マルチモーダルベンチマーク(CIFAR-10, WikiText-103)で検証されており、トランスフォーマー、グラフネットワーク、幾何ベースライン(GATr, EGNN)を一貫して上回っている。
主な結果は、桁違いのパラメータ(200\times$ vs. Transformers)、近距離成分と向き成分に分解する解釈可能な注意分解、ゼロショットスケールの一般化(トポロジー上の99.3% MCC 対 ViT の 50.4% )、新しい再帰ロータ累積による$O(L)$線形複雑性である。
アウト・オブ・ディストリビューションテストでは、Versorは安定した予測を維持し、Transformerは破滅的に失敗する。
カスタムのCliffordカーネルは、幾何学的に認識された科学モデリングのためのスケーラブルな基盤を提供する、最大78\times$ Speedupを実現している。
関連論文リスト
- Exploiting Function-Family Structure in Analog Circuit Optimization [22.334314861424943]
オフザシェルフのガウス過程のサロゲートは、これらのシステミックスイッチングプリミティブと不一致の、全世界的にスムーズで定常的な優先順位を課す。
これらのプリミティブを符号化した事前学習モデルでは、回路単位のエンジニアリングを使わずに信頼性の高い最適化が可能であることを実証する。
論文 参考訳(メタデータ) (2025-11-30T03:21:13Z) - Constructive Lyapunov Functions via Topology-Preserving Neural Networks [0.0]
ONNは収束率、エッジ効率、計算複雑性の順序-最適性能を達成する。
3Mノードのセマンティックネットワークにおける実証的な検証は、ベースライン法よりも99.75%改善されている。
ORTSFをトランスに組み込むことで、14.7%のパープレキシティ低減と2.3の高速化を実現している。
論文 参考訳(メタデータ) (2025-10-10T17:46:52Z) - Geometrically Constrained and Token-Based Probabilistic Spatial Transformers [5.437226012505534]
我々は、トランスフォーマーベースのビジョンパイプラインの標準化ツールとして、空間トランスフォーマーネットワーク(STN)を再考する。
本稿では、堅牢性を向上させる確率的、コンポーネントワイドな拡張を提案する。
本手法が他のSTNと比較して頑健さを常に向上することを示す。
論文 参考訳(メタデータ) (2025-09-14T11:30:53Z) - Graded Transformers [0.0]
そこで我々は,ベクトル空間上のグレーディングを通じて帰納バイアスを埋め込む新しいシーケンスモデルである Graded Transformer フレームワークを紹介した。
このフレームワークは、以前のモデルの固定グレードの制限を克服し、適応的な特徴優先順位付けを可能にする。
Graded Transformerは、階層的学習とニューロシンボリック推論に対する数学的に原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2025-07-27T02:34:08Z) - Exact Sequence Interpolation with Transformers [0.0]
変換器は, 有限入力列のデータセットを$mathbbRd$, $dgeq 2$で正確に補間できることを示す。
具体的には、$mathbbRd$の任意の長さの$N$シーケンスと$m1, dots, mN in MathcalN$の出力シーケンスを与えられた場合、$mathcalO(sum_j=1N mj)$ブロックと$で変換器を構築する。
論文 参考訳(メタデータ) (2025-02-04T12:31:00Z) - Chain of Thought Empowers Transformers to Solve Inherently Serial Problems [57.58801785642868]
思考の連鎖(CoT)は、算術や記号的推論タスクにおいて、大きな言語モデル(LLM)の精度を向上させるための非常に効果的な方法である。
この研究は、表現性のレンズを通してデコーダのみの変換器に対するCoTのパワーを理論的に理解する。
論文 参考訳(メタデータ) (2024-02-20T10:11:03Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。