論文の概要: Learners' languages
- arxiv url: http://arxiv.org/abs/2103.01189v1
- Date: Mon, 1 Mar 2021 18:34:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 04:02:27.385276
- Title: Learners' languages
- Title(参考訳): 学習者の言語
- Authors: David I. Spivak
- Abstract要約: 著者らは、深層学習の基本的な要素である勾配降下とバックプロパゲーションは、強いモノイド関手として概念化できることを示した。
我々は$Ato B$ in $mathbfPara(mathbfSLens)$の写像が動的系の観点から自然な解釈を持っていることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In "Backprop as functor", the authors show that the fundamental elements of
deep learning -- gradient descent and backpropagation -- can be conceptualized
as a strong monoidal functor $\mathbf{Para}(\mathbf{Euc})\to\mathbf{Learn}$
from the category of parameterized Euclidean spaces to that of learners, a
category developed explicitly to capture parameter update and backpropagation.
It was soon realized that there is an isomorphism
$\mathbf{Learn}\cong\mathbf{Para}(\mathbf{SLens})$, where $\mathbf{SLens}$ is
the symmetric monoidal category of simple lenses as used in functional
programming.
In this note, we observe that $\mathbf{SLens}$ is a full subcategory of
$\mathbf{Poly}$, the category of polynomial functors in one variable, via the
functor $A\mapsto Ay^A$. Using the fact that $(\mathbf{Poly},\otimes)$ is
monoidal closed, we show that a map $A\to B$ in $\mathbf{Para}(\mathbf{SLens})$
has a natural interpretation in terms of dynamical systems (more precisely,
generalized Moore machines) whose interface is the internal-hom type
$[Ay^A,By^B]$.
Finally, we review the fact that the category $p\text{-}\mathbf{Coalg}$ of
dynamical systems on any $p\in\mathbf{Poly}$ forms a topos, and consider the
logical propositions that can be stated in its internal language. We give
gradient descent as an example, and we conclude by discussing some directions
for future work.
- Abstract(参考訳): Backprop as functor」では、深層学習の基本要素である勾配降下とバックプロパゲーションは、パラメータ化されたユークリッド空間の圏から、パラメータ更新とバックプロパゲーションをキャプチャするために明示的に開発されたカテゴリーである、強いモノイド関手 $\mathbf{Para}(\mathbf{Euc})\to\mathbf{Learn}$ として概念化できることを示した。
するとすぐに、$\mathbf{learn}\cong\mathbf{para}(\mathbf{slens})$ という同型が存在し、ここでは$\mathbf{slens}$ は関数型プログラミングで使われる単純なレンズの対称モノイド圏である。
ここで、$\mathbf{SLens}$ は 1 変数の多項式関手の圏である $\mathbf{Poly}$ の完全部分圏であり、関手 $A\mapsto Ay^A$ を通して観察する。
$(\mathbf{Poly},\otimes)$ がモノイド閉であるという事実を用いて、写像 $A\to B$ in $\mathbf{Para}(\mathbf{SLens})$ が内部ホム型 $[Ay^A,By^B]$ であるような力学系(より正確には一般化されたムーアマシン)の観点で自然な解釈を持つことを示す。
最後に、任意の$p\in\mathbf{Poly}$上の動的システムのカテゴリ$p\text{-}\mathbf{Coalg}$がトーポを形成するという事実をレビューし、その内部言語で記述できる論理命題を検討する。
勾配降下を例に挙げ、今後の作業の方向性について議論して締めくくります。
関連論文リスト
- Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Families of costs with zero and nonnegative MTW tensor in optimal
transport [0.0]
我々は、$mathsfc$のコスト関数を持つ$mathbbRn$上の最適輸送問題に対するMTWテンソルを明示的に計算する。
我々は$sinh$-typeの双曲的コストを分析し、$mathsfc$-type関数と発散の例を提供する。
論文 参考訳(メタデータ) (2024-01-01T20:33:27Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Uncovering hidden geometry in Transformers via disentangling position
and context [0.6118897979046375]
トレーニングされた変換器の隠れ状態(または埋め込み)を解釈可能なコンポーネントに簡易に分解する。
一般的なトランスフォーマーアーキテクチャや多様なテキストデータセットでは、経験的に広範に数学的構造が見つかる。
論文 参考訳(メタデータ) (2023-10-07T15:50:26Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Beyond the Berry Phase: Extrinsic Geometry of Quantum States [77.34726150561087]
状態の量子多様体のすべての性質がゲージ不変のバーグマンによって完全に記述されることを示す。
偏光理論への我々の結果の即時適用について述べる。
論文 参考訳(メタデータ) (2022-05-30T18:01:34Z) - Metric Hypertransformers are Universal Adapted Maps [4.83420384410068]
メートル法ハイパートランスフォーマー(MHT)は、任意の適応マップを近似可能な複雑性で、$F:mathscrXmathbbZrightarrow数学scrYmathbbZ$を近似することができる。
我々の結果は、そのような$mathscrX$ および $mathscrY$ と互換性のある最初の(近似的な)普遍近似定理を提供する。
論文 参考訳(メタデータ) (2022-01-31T10:03:46Z) - Uncertainties in Quantum Measurements: A Quantum Tomography [52.77024349608834]
量子系 $S$ に関連する可観測物は非可換代数 $mathcal A_S$ を形成する。
密度行列 $rho$ は可観測物の期待値から決定できると仮定される。
アーベル代数は内部自己同型を持たないので、測定装置は可観測物の平均値を決定することができる。
論文 参考訳(メタデータ) (2021-12-14T16:29:53Z) - Fast Graph Sampling for Short Video Summarization using Gershgorin Disc
Alignment [52.577757919003844]
高速グラフサンプリングの最近の進歩を利用して,短い動画を複数の段落に効率よく要約する問題について検討する。
実験結果から,本アルゴリズムは最先端の手法と同等の映像要約を実現し,複雑さを大幅に低減した。
論文 参考訳(メタデータ) (2021-10-21T18:43:00Z) - Learning a Lie Algebra from Unlabeled Data Pairs [7.329382191592538]
深層畳み込みネットワーク (convnets) は、非絡み合った表現を学習する顕著な能力を示している。
本稿では,空間$mathbbRn$の非線形変換を発見する機械学習手法を提案する。
鍵となる考え方は、すべてのターゲット $boldsymboly_i$ を $boldsymbolwidetildey_i = boldsymbolphi(t_i) boldsymbolx_i$ という形の行列ベクトル積で近似することである。
論文 参考訳(メタデータ) (2020-09-19T23:23:52Z) - A Canonical Transform for Strengthening the Local $L^p$-Type Universal
Approximation Property [4.18804572788063]
任意の機械学習モデルクラス $mathscrFsubseteq C(mathbbRd,mathbbRD)$ が $Lp_mu(mathbbRd,mathbbRD)$ で密であることを保証する。
本稿では、「$mathscrF$'s approximation property」という正準変換を導入することにより、この近似理論問題に対する一般的な解を提案する。
論文 参考訳(メタデータ) (2020-06-24T17:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。