論文の概要: Tensor-Based Foundations of Ordinary Least Squares and Neural Network Regression Models
- arxiv url: http://arxiv.org/abs/2411.12873v1
- Date: Tue, 19 Nov 2024 21:36:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:10:20.027812
- Title: Tensor-Based Foundations of Ordinary Least Squares and Neural Network Regression Models
- Title(参考訳): テンソルに基づく通常最小方形の基礎とニューラルネットワーク回帰モデル
- Authors: Roberto Dias Algarte,
- Abstract要約: 本稿では,通常の最小二乗モデルとニューラルネットワーク回帰モデルの数学的発展に対する新しいアプローチを紹介する。
解析と基本的な行列計算を活用することにより、両方のモデルの理論的基礎は慎重に詳細化され、完全なアルゴリズム形式に拡張される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This article introduces a novel approach to the mathematical development of Ordinary Least Squares and Neural Network regression models, diverging from traditional methods in current Machine Learning literature. By leveraging Tensor Analysis and fundamental matrix computations, the theoretical foundations of both models are meticulously detailed and extended to their complete algorithmic forms. The study culminates in the presentation of three algorithms, including a streamlined version of the Backpropagation Algorithm for Neural Networks, illustrating the benefits of this new mathematical approach.
- Abstract(参考訳): 本稿では,現在の機械学習文献における従来の手法から切り離された,通常の最小方形とニューラルネットワーク回帰モデルの数学的発展に対する新しいアプローチを紹介する。
テンソル解析と基本行列計算を利用することで、両方のモデルの理論的基礎は精巧に詳細化され、完全なアルゴリズム形式に拡張される。
この研究は、ニューラルネットワークのためのバックプロパゲーションアルゴリズムの合理化バージョンを含む3つのアルゴリズムのプレゼンテーションで頂点に達し、この新しい数学的アプローチの利点が説明される。
関連論文リスト
- Foundations and Frontiers of Graph Learning Theory [81.39078977407719]
グラフ学習の最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。
グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。
本稿では,グラフ学習モデルに固有の近似と学習行動に関する理論的基礎とブレークスルーについて概説する。
論文 参考訳(メタデータ) (2024-07-03T14:07:41Z) - Front-propagation Algorithm: Explainable AI Technique for Extracting Linear Function Approximations from Neural Networks [0.0]
本稿では、深層ニューラルネットワークの意思決定ロジックの解明を目的とした、新しいAI技術であるフロントプロパゲーションアルゴリズムを紹介する。
積分グラディエントやシェープ値などの他の一般的な説明可能性アルゴリズムとは異なり、提案アルゴリズムはネットワークの正確で一貫した線形関数説明を抽出することができる。
公開されているベンチマークデータセットに基づいてトレーニングされた3つの異なるニューラルネットワークアーキテクチャで、正確な線形関数を提供することの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-25T14:50:23Z) - A singular Riemannian Geometry Approach to Deep Neural Networks III. Piecewise Differentiable Layers and Random Walks on $n$-dimensional Classes [49.32130498861987]
本稿ではReLUのような非微分可能活性化関数の事例について検討する。
最近の2つの研究は、ニューラルネットワークを研究するための幾何学的枠組みを導入した。
本稿では,画像の分類と熱力学問題に関する数値実験を行った。
論文 参考訳(メタデータ) (2024-04-09T08:11:46Z) - A Survey on Statistical Theory of Deep Learning: Approximation, Training Dynamics, and Generative Models [13.283281356356161]
本稿では3つの観点から,ニューラルネットワークの統計理論に関する文献をレビューする。
ニューラルネットワークの過剰なリスクに関する調査結果をレビューする。
ニューラルネットワークが、目に見えないデータでうまく一般化できるソリューションを見つける方法に答えようとする論文」をレビューする。
論文 参考訳(メタデータ) (2024-01-14T02:30:19Z) - Neural network models [0.0]
この研究は、ニューラルネットワークに関連する数学モデルの現在のコレクションを示す。
認知能力の選択を達成するために、構造と力学を拡張した新しいファミリーを提案する。
論文 参考訳(メタデータ) (2023-01-08T05:52:13Z) - Matrix factorization with neural networks [0.0]
連想記憶のニューラルネットワークモデルにマッピングする新しいデシメーション方式を導入する。
我々は,デシメーションが広範囲の行列を分解し,効率的にデシメーションすることができることを示した。
論文 参考訳(メタデータ) (2022-12-05T08:58:56Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Computational Morphology with Neural Network Approaches [5.913574957971709]
ニューラルネットワークのアプローチは計算形態学にも適用されており、大きな成功を収めている。
本稿では、計算形態学の簡単な紹介と、ニューラルネットワークによる計算形態学に関する最近の研究のレビューから始める。
計算形態学へのニューラルネットワークアプローチの利点と問題点を分析し、今後の研究や研究で探求すべき方向性を指摘する。
論文 参考訳(メタデータ) (2021-05-19T21:17:53Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。