論文の概要: Discrete neural nets and polymorphic learning
- arxiv url: http://arxiv.org/abs/2308.00677v1
- Date: Sat, 29 Jul 2023 16:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 13:21:32.049501
- Title: Discrete neural nets and polymorphic learning
- Title(参考訳): 離散ニューラルネットと多形学習
- Authors: Charlotte Aten
- Abstract要約: ここでは、これらの結果を統一的な設定に配置する古典的なニューラルネットの概念の離散的な類似を考察する。
関係構造の多型に基づく学習アルゴリズムを導入し、古典的な学習課題にどのように使用するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Theorems from universal algebra such as that of Murski\u{i} from the 1970s
have a striking similarity to universal approximation results for neural nets
along the lines of Cybenko's from the 1980s. We consider here a discrete
analogue of the classical notion of a neural net which places these results in
a unified setting. We introduce a learning algorithm based on polymorphisms of
relational structures and show how to use it for a classical learning task.
- Abstract(参考訳): 1970年代のMurski\u{i} のような普遍代数からの定理は、1980年代のシベンコの線に沿ったニューラルネットに対する普遍近似結果と著しく類似している。
ここでは、これらの結果を統一した設定に配置するニューラルネットワークの古典的な概念の離散的類似性を考える。
関係構造の多型に基づく学習アルゴリズムを導入し、古典的な学習課題にどのように使用するかを示す。
関連論文リスト
- A singular Riemannian Geometry Approach to Deep Neural Networks III. Piecewise Differentiable Layers and Random Walks on $n$-dimensional Classes [49.32130498861987]
本稿ではReLUのような非微分可能活性化関数の事例について検討する。
最近の2つの研究は、ニューラルネットワークを研究するための幾何学的枠組みを導入した。
本稿では,画像の分類と熱力学問題に関する数値実験を行った。
論文 参考訳(メタデータ) (2024-04-09T08:11:46Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Generalization bounds for neural ordinary differential equations and
deep residual networks [1.2328446298523066]
我々は、連続時間パラメータを持つパラメータ化ニューラル常微分方程式(ニューラルODE)の族を考える。
ニューラルネットワークとディープ残差ネットワークの類似を利用して、我々はディープ残差ネットワークのクラスを一般化する。
論文 参考訳(メタデータ) (2023-05-11T08:29:34Z) - On the space of coefficients of a Feed Forward Neural Network [0.0]
ニューラルネットワークが一方向に線形に活性化されるような$mathcalN$を与えられた場合、等価な全てのニューラルネットワークを記述する係数の空間は半代数集合によって与えられる。
この結果は、与えられたピースワイド線型関数の異なる表現をタルスキ=セイデンベルグの定理を用いて研究することによって得られる。
論文 参考訳(メタデータ) (2021-09-07T22:47:50Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Expressivity of Deep Neural Networks [2.7909470193274593]
本稿では,ニューラルネットワークの様々な近似結果について概説する。
既存の結果は、一般的なフィードフォワードアーキテクチャのためのものだが、畳み込み、残留、反復するニューラルネットワークの近似結果も記述する。
論文 参考訳(メタデータ) (2020-07-09T13:08:01Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - Equivalence in Deep Neural Networks via Conjugate Matrix Ensembles [0.0]
ディープラーニングアーキテクチャの等価性を検出するための数値解析手法を開発した。
経験的証拠は、ニューラルアーキテクチャのスペクトル密度とそれに対応する共役円形アンサンブルの差が消えているという現象を裏付けている。
論文 参考訳(メタデータ) (2020-06-14T12:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。