論文の概要: A topological description of loss surfaces based on Betti Numbers
- arxiv url: http://arxiv.org/abs/2401.03824v1
- Date: Mon, 8 Jan 2024 11:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 16:43:27.978125
- Title: A topological description of loss surfaces based on Betti Numbers
- Title(参考訳): ベティ数に基づく損失面の位相的記述
- Authors: Maria Sofia Bucarelli, Giuseppe Alessio D'Inverno, Monica Bianchini,
Franco Scarselli and Fabrizio Silvestri
- Abstract要約: 多層ニューラルネットワークの場合の損失複雑性を評価するためのトポロジカル尺度を提供する。
損失関数やモデルアーキテクチャの特定のバリエーション、例えば$ell$正規化項の追加やフィードフォワードネットワークでの接続のスキップは、特定のケースにおける損失には影響しない。
- 参考スコア(独自算出の注目度): 8.539445673580252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of deep learning models, attention has recently been paid to
studying the surface of the loss function in order to better understand
training with methods based on gradient descent. This search for an appropriate
description, both analytical and topological, has led to numerous efforts to
identify spurious minima and characterize gradient dynamics. Our work aims to
contribute to this field by providing a topological measure to evaluate loss
complexity in the case of multilayer neural networks. We compare deep and
shallow architectures with common sigmoidal activation functions by deriving
upper and lower bounds on the complexity of their loss function and revealing
how that complexity is influenced by the number of hidden units, training
models, and the activation function used. Additionally, we found that certain
variations in the loss function or model architecture, such as adding an
$\ell_2$ regularization term or implementing skip connections in a feedforward
network, do not affect loss topology in specific cases.
- Abstract(参考訳): 深層学習モデルの文脈では, 最近, 勾配降下に基づく方法の学習をより理解するために, 損失関数表面の研究に注目が集まっている。
解析的およびトポロジカルな双方で適切な記述を求めるこの探索は、突発的なミニマを同定し、勾配力学を特徴づけるための多くの努力を導いた。
本研究の目的は,多層ニューラルネットワークの場合の損失複雑性を評価するためのトポロジカル尺度を提供することである。
深層および浅層アーキテクチャと共通のシグモイド活性化関数を比較し,損失関数の複雑性を上下境界から導出し,その複雑さが隠れた単位数,トレーニングモデル,使用する活性化関数にどのように影響するかを明らかにする。
さらに、損失関数やモデルアーキテクチャの特定のバリエーションとして、$\ell_2$正規化項の追加やフィードフォワードネットワークにおけるスキップ接続の実装は、特定のケースでは損失トポロジに影響しないことがわかった。
関連論文リスト
- Topological obstruction to the training of shallow ReLU neural networks [0.0]
損失ランドスケープの幾何学と単純なニューラルネットワークの最適化軌跡との相互作用について検討する。
本稿では,勾配流を用いた浅部ReLUニューラルネットワークの損失景観におけるトポロジカル障害物の存在を明らかにする。
論文 参考訳(メタデータ) (2024-10-18T19:17:48Z) - Dynamical loss functions shape landscape topography and improve learning in artificial neural networks [0.9208007322096533]
クロスエントロピーと平均二乗誤差を動的損失関数に変換する方法を示す。
異なるサイズのネットワークに対する検証精度を大幅に向上させる方法を示す。
論文 参考訳(メタデータ) (2024-10-14T16:27:03Z) - Unraveling the Hessian: A Key to Smooth Convergence in Loss Function Landscapes [0.0]
我々は、完全に連結されたニューラルネットワークにおける損失景観の収束を理論的に解析し、新しいオブジェクトをサンプルに追加する際の損失関数値の差について上限を導出する。
画像分類作業における損失関数面の収束を実証し,これらの結果を様々なデータセットで検証した。
論文 参考訳(メタデータ) (2024-09-18T14:04:15Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Critical Investigation of Failure Modes in Physics-informed Neural
Networks [0.9137554315375919]
合成定式化による物理インフォームドニューラルネットワークは、最適化が難しい非学習損失面を生成することを示す。
また,2つの楕円問題に対する2つのアプローチを,より複雑な目標解を用いて評価する。
論文 参考訳(メタデータ) (2022-06-20T18:43:35Z) - Going beyond p-convolutions to learn grayscale morphological operators [64.38361575778237]
p-畳み込み層と同じ原理に基づく2つの新しい形態層を提示する。
本研究では, p-畳み込み層と同じ原理に基づく2つの新しい形態層を示す。
論文 参考訳(メタデータ) (2021-02-19T17:22:16Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。