論文の概要: Algebraically-Informed Deep Networks (AIDN): A Deep Learning Approach to
Represent Algebraic Structures
- arxiv url: http://arxiv.org/abs/2012.01141v3
- Date: Fri, 12 Feb 2021 07:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:39:50.299046
- Title: Algebraically-Informed Deep Networks (AIDN): A Deep Learning Approach to
Represent Algebraic Structures
- Title(参考訳): 代数的不定型深層ネットワーク(aidn) : 代数構造を表現するディープラーニングアプローチ
- Authors: Mustafa Hajij, Ghada Zamzmi, Matthew Dawson, Greg Muller
- Abstract要約: textbfAIDN, textitAlgebraically-Informed Deep Networksを紹介する。
textbfAIDNは、深層ニューラルネットワークで有限表現された任意の代数的オブジェクトを表現するディープラーニングアルゴリズムである。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the central problems in the interface of deep learning and mathematics
is that of building learning systems that can automatically uncover underlying
mathematical laws from observed data. In this work, we make one step towards
building a bridge between algebraic structures and deep learning, and introduce
\textbf{AIDN}, \textit{Algebraically-Informed Deep Networks}. \textbf{AIDN} is
a deep learning algorithm to represent any finitely-presented algebraic object
with a set of deep neural networks. The deep networks obtained via
\textbf{AIDN} are \textit{algebraically-informed} in the sense that they
satisfy the algebraic relations of the presentation of the algebraic structure
that serves as the input to the algorithm. Our proposed network can robustly
compute linear and non-linear representations of most finitely-presented
algebraic structures such as groups, associative algebras, and Lie algebras. We
evaluate our proposed approach and demonstrate its applicability to algebraic
and geometric objects that are significant in low-dimensional topology. In
particular, we study solutions for the Yang-Baxter equations and their
applications on braid groups. Further, we study the representations of the
Temperley-Lieb algebra. Finally, we show, using the Reshetikhin-Turaev
construction, how our proposed deep learning approach can be utilized to
construct new link invariants. We believe the proposed approach would tread a
path toward a promising future research in deep learning applied to algebraic
and geometric structures.
- Abstract(参考訳): 深層学習と数学のインターフェイスにおける中心的な問題の1つは、観測データから基礎となる数学的法則を自動的に解明できる学習システムを構築することである。
本稿では,代数構造と深層学習の橋梁構築に向けての一ステップを踏み出し,その上で,textbf{AIDN}, \textit{Algebraically-Informed Deep Networks}を紹介する。
\textbf{AIDN} は、ディープニューラルネットワークの集合を持つ有限表現代数オブジェクトを表現するディープラーニングアルゴリズムである。
textbf{aidn} によって得られる深層ネットワークは、アルゴリズムの入力として働く代数的構造の表現の代数的関係を満たすという意味では \textit{algebraically-informed} である。
提案したネットワークは、群、連想代数学、リー代数など、最も有限で表される代数構造の線型および非線形表現を頑健に計算することができる。
提案手法を評価し,低次元トポロジーにおいて重要な代数的および幾何学的対象への適用性を示す。
特に、ヤン・バクスター方程式の解とそのブレイド群への応用について研究する。
さらに、テンパーリー-リーブ代数の表現について研究する。
最後に,reshetikhin-turaev構成を用いて,提案する深層学習手法を用いて新たなリンク不変量を構築する方法を示す。
提案手法は、代数的および幾何学的構造に応用された深層学習における将来的な研究への道筋をたどると信じている。
関連論文リスト
- Tropical Expressivity of Neural Networks [0.0]
熱帯の幾何学を用いて、ニューラルネットワークの様々なアーキテクチャ的側面を特徴づけ、研究する。
線形領域の正確な数を計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-30T15:45:03Z) - Demystifying the Hypercomplex: Inductive Biases in Hypercomplex Deep Learning [23.501824517684465]
本稿では,超複雑深層学習手法がなぜ成功し,その可能性をどのように活用できるかを理解するための枠組みを提供する。
超複素領域における特定の帰納バイアスを導出できることを示す。
これらのバイアスは、これらの領域の特徴的な性質や多次元および多モード信号の複素構造を管理するのに有効である。
論文 参考訳(メタデータ) (2024-05-11T14:41:48Z) - Fundamental Components of Deep Learning: A category-theoretic approach [0.0]
この論文は、カテゴリ理論の言語に基づく、ディープラーニングのための新しい数学的基礎を発展させている。
我々はまた、既存の多くのアプローチを体系化し、多くの既存の構成と概念を同じ傘の下に置きます。
論文 参考訳(メタデータ) (2024-03-13T01:29:40Z) - Simplicial Representation Learning with Neural $k$-Forms [14.566552361705499]
本稿では,ノード座標を用いて,$mathbbRn$に埋め込まれた単体錯体から得られる幾何学的情報を活用することに焦点を当てる。
我々は mathbbRn の微分 k-形式を用いて単純化の表現を作成し、メッセージパッシングなしに解釈可能性と幾何学的整合性を提供する。
本手法は, グラフ, simplicial Complex, セルコンプレックスなど, 様々な入力コンプレックスに適用可能である。
論文 参考訳(メタデータ) (2023-12-13T21:03:39Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Learning from Protein Structure with Geometric Vector Perceptrons [6.5360079597553025]
幾何学的ベクトルパーセプトロンを導入し、標準密度層を拡張してユークリッドベクトルの集合を演算する。
本稿では,タンパク質構造から学習する際の2つの重要な問題として,モデル品質評価と計算タンパク質設計について述べる。
論文 参考訳(メタデータ) (2020-09-03T01:54:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。