論文の概要: Mathematics of Neural Networks (Lecture Notes Graduate Course)
- arxiv url: http://arxiv.org/abs/2403.04807v1
- Date: Wed, 6 Mar 2024 08:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:05:16.608375
- Title: Mathematics of Neural Networks (Lecture Notes Graduate Course)
- Title(参考訳): ニューラルネットワークの数学(講義ノート研究科)
- Authors: Bart M.N. Smets
- Abstract要約: このコースは、大学院レベルの数学の学生のためのニューラルネットワークの導入を目的としている。
講義ノートは、適度な数学のバックグラウンドを持つすべての学生にアクセスできるよう、可能な限り自己完結型にされた。
このコースには、Jupyterノートブックのセットという形でのコーディングチュートリアルや課題も含まれていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: These are the lecture notes that accompanied the course of the same name that
I taught at the Eindhoven University of Technology from 2021 to 2023. The
course is intended as an introduction to neural networks for mathematics
students at the graduate level and aims to make mathematics students interested
in further researching neural networks. It consists of two parts: first a
general introduction to deep learning that focuses on introducing the field in
a formal mathematical way. The second part provides an introduction to the
theory of Lie groups and homogeneous spaces and how it can be applied to design
neural networks with desirable geometric equivariances. The lecture notes were
made to be as self-contained as possible so as to accessible for any student
with a moderate mathematics background. The course also included coding
tutorials and assignments in the form of a set of Jupyter notebooks that are
publicly available at
https://gitlab.com/bsmetsjr/mathematics_of_neural_networks.
- Abstract(参考訳): これらは、私が2021年から2023年までアイントホーフェン工科大学で教えた同じ名前の講義ノートです。
このコースは、大学院レベルの数学の学生のためのニューラルネットワーク入門を意図しており、数学の学生にニューラルネットワークのさらなる研究に興味を持たせることを目的としている。
第一に、正式な数学的方法でフィールドを導入することに焦点を当てた、ディープラーニングの一般的な紹介です。
第2部は、リー群と等質空間の理論の紹介と、それが望ましい幾何学的同値性を持つニューラルネットワークの設計にどのように適用できるかを提供する。
講義ノートは、適度な数学のバックグラウンドを持つすべての学生にアクセスできるよう、可能な限り自己完結したものであった。
Jupyterノートブックはhttps://gitlab.com/bsmetsjr/mathematics_of_neural_networks.comで公開されている。
関連論文リスト
- Towards a Categorical Foundation of Deep Learning: A Survey [0.0]
この論文は、機械学習を分類的に研究しようとする最近の研究をカバーしている。
数学と科学の言語フランスとして働く カテゴリー理論は 機械学習の分野に 統一的な構造を与えるかもしれない
論文 参考訳(メタデータ) (2024-10-07T13:11:16Z) - Lecture Notes on Linear Neural Networks: A Tale of Optimization and Generalization in Deep Learning [14.909298522361306]
ノートは、深層学習の数学的理解に関するプリンストン大学の上級講座の一部として、2021年3月にNCが行った講義に基づいている。
彼らは線形ニューラルネットワークの理論(NC、NR、共同研究者によって開発された)を提示し、ディープラーニングの最適化と一般化の研究における基礎モデルである。
論文 参考訳(メタデータ) (2024-08-25T08:24:48Z) - TASI Lectures on Physics for Machine Learning [0.0]
注記は、TASI 2024で行った、機械学習のための物理学に関する講義に基づいている。
ニューラルネットワーク理論は、ネットワーク表現性、統計、ダイナミクスに基づいて組織化されている。
論文 参考訳(メタデータ) (2024-07-31T18:00:22Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Deep Learning and Computational Physics (Lecture Notes) [0.5156484100374059]
ノートは、応用数学の強い背景を持つ典型的な工学の大学院生にアクセスできるべきである。
深層学習アルゴリズムの理解を深めるために、計算物理学の概念を使う。
いくつかの新しいディープラーニングアルゴリズムは、計算物理学の難解な問題を解くのに使える。
論文 参考訳(メタデータ) (2023-01-03T03:56:19Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。