論文の概要: Low-Rank Tensor Decompositions for the Theory of Neural Networks
- arxiv url: http://arxiv.org/abs/2508.18408v1
- Date: Mon, 25 Aug 2025 18:50:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.560219
- Title: Low-Rank Tensor Decompositions for the Theory of Neural Networks
- Title(参考訳): ニューラルネットワーク理論のための低ランクテンソル分解
- Authors: Ricardo Borsoi, Konstantin Usevich, Marianne Clausel,
- Abstract要約: 本稿では,低ランクテンソル法がディープNNの性能の異なる側面を理論的に説明する上で,いかに基本的な役割を担っているかを示す。
私たちのゴールは、一貫性のある統一された方法で既存のアプローチの概要を提供することです。
- 参考スコア(独自算出の注目度): 2.052232372948406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The groundbreaking performance of deep neural networks (NNs) promoted a surge of interest in providing a mathematical basis to deep learning theory. Low-rank tensor decompositions are specially befitting for this task due to their close connection to NNs and their rich theoretical results. Different tensor decompositions have strong uniqueness guarantees, which allow for a direct interpretation of their factors, and polynomial time algorithms have been proposed to compute them. Through the connections between tensors and NNs, such results supported many important advances in the theory of NNs. In this review, we show how low-rank tensor methods--which have been a core tool in the signal processing and machine learning communities--play a fundamental role in theoretically explaining different aspects of the performance of deep NNs, including their expressivity, algorithmic learnability and computational hardness, generalization, and identifiability. Our goal is to give an accessible overview of existing approaches (developed by different communities, ranging from computer science to mathematics) in a coherent and unified way, and to open a broader perspective on the use of low-rank tensor decompositions for the theory of deep NNs.
- Abstract(参考訳): ディープニューラルネットワーク(NN)の画期的な性能は、ディープラーニング理論に数学的基礎を提供することへの関心の高まりを助長した。
低ランクテンソル分解は、NNとの密接な関係とリッチな理論的結果のために、このタスクに特に適している。
異なるテンソル分解は、それらの因子を直接解釈できる強い特異性を保証することができ、多項式時間アルゴリズムがそれらを計算するために提案されている。
テンソルとNNの接続を通して、これらの結果はNNの理論において多くの重要な進歩を支えた。
本稿では,信号処理と機械学習コミュニティにおける中核的なツールである低ランクテンソル手法が,表現性,アルゴリズム学習性,計算硬度,一般化,識別性など,深層NNの性能の異なる側面を理論的に説明する上で,基本的な役割を担っていることを示す。
我々のゴールは、コヒーレントで統一的な方法で既存のアプローチ(コンピュータ科学から数学まで、様々なコミュニティによって開発された)を概観し、ディープNNの理論における低ランクテンソル分解の使用に関するより広い視点を開くことである。
関連論文リスト
- Tensorization is a powerful but underexplored tool for compression and interpretability of neural networks [0.0]
テンソル化ニューラルネットワーク(TNN)は、ディープラーニングのための強力だが未探索のフレームワークである、と我々は主張する。
TNNの中心的な特徴は、従来のネットワークでは見つからない新しい潜伏空間を導入する結合指標の存在である。
論文 参考訳(メタデータ) (2025-05-26T15:32:28Z) - Understanding Deep Learning via Notions of Rank [5.439020425819001]
この論文は、ディープラーニングの理論を発展させる鍵としてランクの概念を提唱している。
特に、勾配に基づくトレーニングは、いくつかのニューラルネットワークアーキテクチャにおいて、低ランクに対する暗黙の正規化を誘導できると確認する。
明示的な正規化スキームとデータ前処理アルゴリズムを設計するための我々の理論の実践的意味を述べる。
論文 参考訳(メタデータ) (2024-08-04T18:47:55Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。