論文の概要: Addressing common misinterpretations of KART and UAT in neural network literature
- arxiv url: http://arxiv.org/abs/2408.16389v2
- Date: Fri, 30 Aug 2024 18:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 12:43:33.309908
- Title: Addressing common misinterpretations of KART and UAT in neural network literature
- Title(参考訳): ニューラルネットワーク文学におけるKARTとUATの共通解釈
- Authors: Vugar Ismailov,
- Abstract要約: This note address the Kolmogorov-Arnold Representation Theorem (KART) and the Universal Approximation Theorem (UAT)
我々の発言は、ニューラルネットワークの専門家の間でのKARTとUATのより正確な理解を支援することを目的としています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This note addresses the Kolmogorov-Arnold Representation Theorem (KART) and the Universal Approximation Theorem (UAT), focusing on their common misinterpretations in some papers related to neural network approximation. Our remarks aim to support a more accurate understanding of KART and UAT among neural network specialists.
- Abstract(参考訳): このノートは、KART(Kolmogorov-Arnold Representation Theorem)とUAT(Universal Approximation Theorem)に言及し、ニューラルネットワーク近似に関するいくつかの論文で共通の誤解に焦点を当てている。
我々の発言は、ニューラルネットワークの専門家の間でのKARTとUATのより正確な理解を支援することを目的としています。
関連論文リスト
- TASI Lectures on Physics for Machine Learning [0.0]
注記は、TASI 2024で行った、機械学習のための物理学に関する講義に基づいている。
ニューラルネットワーク理論は、ネットワーク表現性、統計、ダイナミクスに基づいて組織化されている。
論文 参考訳(メタデータ) (2024-07-31T18:00:22Z) - A Survey on Universal Approximation Theorems [0.0]
本稿ではニューラルネットワーク(NN)の近似能力に関する様々な定理について論じる。
本稿では,関数近似の予備結果から得られたUATの体系的概要について述べる。
UATの理論的および数値的な側面は、任意の幅と深さの両方からカバーされている。
論文 参考訳(メタデータ) (2024-07-17T13:21:53Z) - Towards the Characterization of Representations Learned via
Capsule-based Network Architectures [0.0]
Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-09T11:20:11Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Universal Approximation Theorem for Neural Networks [0.0]
ニューラルネットワークのUniversal Approximation Theorem for Neural Networks" では、ニューラルネットワークは適切な設定の下で特定の関数空間に密着していると述べている。
本稿では,フィードフォワードニューラルネットワークに対する普遍近似定理の包括的説明を行う。
論文 参考訳(メタデータ) (2021-02-19T08:25:24Z) - A PAC-Bayesian Approach to Generalization Bounds for Graph Neural
Networks [99.46182575751271]
グラフニューラルネットワーク(GNN)の2つの一次クラスに対する一般化境界を導出する。
その結果,重みの最大ノード次数とスペクトルノルムが両モデルの一般化境界を規定することが明らかとなった。
論文 参考訳(メタデータ) (2020-12-14T16:41:23Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。