論文の概要: Sheaf theory: from deep geometry to deep learning
- arxiv url: http://arxiv.org/abs/2502.15476v1
- Date: Fri, 21 Feb 2025 14:00:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:09:15.795227
- Title: Sheaf theory: from deep geometry to deep learning
- Title(参考訳): せん断理論:深部幾何学から深部学習へ
- Authors: Anton Ayzenberg, Thomas Gebhart, German Magai, Grigory Solomadin,
- Abstract要約: 本稿では,深層学習,データサイエンス,計算機科学におけるせん断理論の適用について概説する。
理論研究者と実践者の両方が共有する層理論の直観と動機について述べる。
そこで本研究では,任意の有限集合上でのせん断コホモロジーを計算するための新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License:
- Abstract: This paper provides an overview of the applications of sheaf theory in deep learning, data science, and computer science in general. The primary text of this work serves as a friendly introduction to applied and computational sheaf theory accessible to those with modest mathematical familiarity. We describe intuitions and motivations underlying sheaf theory shared by both theoretical researchers and practitioners, bridging classical mathematical theory and its more recent implementations within signal processing and deep learning. We observe that most notions commonly considered specific to cellular sheaves translate to sheaves on arbitrary posets, providing an interesting avenue for further generalization of these methods in applications, and we present a new algorithm to compute sheaf cohomology on arbitrary finite posets in response. By integrating classical theory with recent applications, this work reveals certain blind spots in current machine learning practices. We conclude with a list of problems related to sheaf-theoretic applications that we find mathematically insightful and practically instructive to solve. To ensure the exposition of sheaf theory is self-contained, a rigorous mathematical introduction is provided in appendices which moves from an introduction of diagrams and sheaves to the definition of derived functors, higher order cohomology, sheaf Laplacians, sheaf diffusion, and interconnections of these subjects therein.
- Abstract(参考訳): 本稿では,ディープラーニング,データサイエンス,計算機科学全般におけるシーフ理論の適用について概説する。
この研究の第一の本文は、数学に精通した控えめな人への応用と計算棚理論の親しみやすい紹介として機能する。
本稿では,理論研究者と実践者の両方が共有する層理論に基づく直観と動機について述べる。
セル・シーブに固有と考えられるほとんどの概念は任意のポーズに対するシーブに変換され、これらの手法の応用におけるさらなる一般化のための興味深い道筋となり、反応中の任意の有限ポーズに対するシーフコホモロジーを計算するための新しいアルゴリズムが提示される。
古典理論と最近の応用を統合することで、この研究は現在の機械学習の実践における盲点を明らかにしている。
我々は、数学的に洞察力があり、実際に解くための指導力のある棚理論の応用に関する問題の一覧で結論付けている。
シーフ理論の表現が自己完結することを保証するため、図式やシーブの導入から導出関手の定義、高階コホモロジー、層ラプラシアン、層拡散、それらの主題の相互接続へと移行する厳密な数学的導入が付録に提供される。
関連論文リスト
- Towards a Categorical Foundation of Deep Learning: A Survey [0.0]
この論文は、機械学習を分類的に研究しようとする最近の研究をカバーしている。
数学と科学の言語フランスとして働く カテゴリー理論は 機械学習の分野に 統一的な構造を与えるかもしれない
論文 参考訳(メタデータ) (2024-10-07T13:11:16Z) - Lecture Notes on Linear Neural Networks: A Tale of Optimization and Generalization in Deep Learning [14.909298522361306]
ノートは、深層学習の数学的理解に関するプリンストン大学の上級講座の一部として、2021年3月にNCが行った講義に基づいている。
彼らは線形ニューラルネットワークの理論(NC、NR、共同研究者によって開発された)を提示し、ディープラーニングの最適化と一般化の研究における基礎モデルである。
論文 参考訳(メタデータ) (2024-08-25T08:24:48Z) - Mathematical theory of deep learning [0.46040036610482665]
これは近似理論、最適化理論、統計学習理論の基本的な結果をカバーしている。
本書は,本トピックに関する基礎知識を読者に提供することを目的としている。
論文 参考訳(メタデータ) (2024-07-25T20:37:12Z) - Foundations and Frontiers of Graph Learning Theory [81.39078977407719]
グラフ学習の最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。
グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。
本稿では,グラフ学習モデルに固有の近似と学習行動に関する理論的基礎とブレークスルーについて概説する。
論文 参考訳(メタデータ) (2024-07-03T14:07:41Z) - Rigor with Machine Learning from Field Theory to the Poincar\'e
Conjecture [0.0]
本稿では,機械学習を用いた自然科学における厳密性獲得手法について論じる。
非厳密な手法は、予想生成や強化学習による検証を通じて厳密な結果をもたらす可能性がある。
また、機械学習理論と数学または理論物理学の間に直接の橋渡しを構築することも想像できる。
論文 参考訳(メタデータ) (2024-02-20T19:00:59Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - Quantum field-theoretic machine learning [0.0]
我々は、$phi4$スカラー場理論をマルコフ確率場の数学的に厳密な枠組み内の機械学習アルゴリズムとして再考する。
ニューラルネットワークはまた、従来のニューラルネットワークの一般化と見なせる$phi4$理論から派生している。
論文 参考訳(メタデータ) (2021-02-18T16:12:51Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Recent advances in deep learning theory [104.01582662336256]
本稿では,近年のディープラーニング理論の進歩をレビューし,整理する。
文献は,(1)深層学習の一般化可能性を分析する複雑性とキャパシティに基づくアプローチ,(2)勾配降下とその変種をモデル化するための微分方程式とその力学系,(3)動的システムの軌道を駆動する損失景観の幾何学的構造,(5)ネットワークアーキテクチャにおけるいくつかの特別な構造の理論的基礎,の6つのグループに分類される。
論文 参考訳(メタデータ) (2020-12-20T14:16:41Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。