論文の概要: Mathematics of Neural Networks (Lecture Notes Graduate Course)
- arxiv url: http://arxiv.org/abs/2403.04807v1
- Date: Wed, 6 Mar 2024 08:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:05:16.608375
- Title: Mathematics of Neural Networks (Lecture Notes Graduate Course)
- Title(参考訳): ニューラルネットワークの数学(講義ノート研究科)
- Authors: Bart M.N. Smets
- Abstract要約: このコースは、大学院レベルの数学の学生のためのニューラルネットワークの導入を目的としている。
講義ノートは、適度な数学のバックグラウンドを持つすべての学生にアクセスできるよう、可能な限り自己完結型にされた。
このコースには、Jupyterノートブックのセットという形でのコーディングチュートリアルや課題も含まれていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: These are the lecture notes that accompanied the course of the same name that
I taught at the Eindhoven University of Technology from 2021 to 2023. The
course is intended as an introduction to neural networks for mathematics
students at the graduate level and aims to make mathematics students interested
in further researching neural networks. It consists of two parts: first a
general introduction to deep learning that focuses on introducing the field in
a formal mathematical way. The second part provides an introduction to the
theory of Lie groups and homogeneous spaces and how it can be applied to design
neural networks with desirable geometric equivariances. The lecture notes were
made to be as self-contained as possible so as to accessible for any student
with a moderate mathematics background. The course also included coding
tutorials and assignments in the form of a set of Jupyter notebooks that are
publicly available at
https://gitlab.com/bsmetsjr/mathematics_of_neural_networks.
- Abstract(参考訳): これらは、私が2021年から2023年までアイントホーフェン工科大学で教えた同じ名前の講義ノートです。
このコースは、大学院レベルの数学の学生のためのニューラルネットワーク入門を意図しており、数学の学生にニューラルネットワークのさらなる研究に興味を持たせることを目的としている。
第一に、正式な数学的方法でフィールドを導入することに焦点を当てた、ディープラーニングの一般的な紹介です。
第2部は、リー群と等質空間の理論の紹介と、それが望ましい幾何学的同値性を持つニューラルネットワークの設計にどのように適用できるかを提供する。
講義ノートは、適度な数学のバックグラウンドを持つすべての学生にアクセスできるよう、可能な限り自己完結したものであった。
Jupyterノートブックはhttps://gitlab.com/bsmetsjr/mathematics_of_neural_networks.comで公開されている。
関連論文リスト
- Conditional computation in neural networks: principles and research
trends [50.55999420565082]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Mathematical Introduction to Deep Learning: Methods, Implementations,
and Theory [4.066869900592636]
この本は、ディープラーニングアルゴリズムのトピックについて紹介することを目的としている。
本稿では,ディープラーニングアルゴリズムの本質的構成要素を数学的に詳細に概説する。
論文 参考訳(メタデータ) (2023-10-31T11:01:23Z) - Deep Learning and Computational Physics (Lecture Notes) [0.5156484100374059]
ノートは、応用数学の強い背景を持つ典型的な工学の大学院生にアクセスできるべきである。
深層学習アルゴリズムの理解を深めるために、計算物理学の概念を使う。
いくつかの新しいディープラーニングアルゴリズムは、計算物理学の難解な問題を解くのに使える。
論文 参考訳(メタデータ) (2023-01-03T03:56:19Z) - What is an equivariant neural network? [11.107386212926702]
コンピュータビジョンのための深層畳み込みニューラルネットワークから、タンパク質構造予測のためのAlphaFold 2まで、機械学習におけるブレークスルーの基礎となる概念である同変ニューラルネットワークについて説明する。
基本的な数学的アイデアは単純であるが、実践的な実現をもたらす工学的な複雑さによってしばしば曖昧にされる。
論文 参考訳(メタデータ) (2022-05-15T19:24:12Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z) - Generalized Leverage Score Sampling for Neural Networks [82.95180314408205]
レバレッジスコアサンプリング(英: Leverage score sample)は、理論計算機科学に由来する強力な技術である。
本研究では、[Avron, Kapralov, Musco, Musco, Musco, Velingker, Zandieh 17] の結果をより広範なカーネルのクラスに一般化する。
論文 参考訳(メタデータ) (2020-09-21T14:46:01Z) - Applications of Deep Neural Networks with Keras [0.0]
ディープラーニングにより、ニューラルネットワークは人間の脳の機能のような方法で情報の階層を学習することができる。
本コースでは,従来のニューラルネットワーク構造であるConversa Neural Networks (CNN), Long Short-Term Memory (LSTM), Gated Recurrent Neural Networks (GRU), General Adrial Networks (GAN)を紹介する。
論文 参考訳(メタデータ) (2020-09-11T22:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。