論文の概要: Designing a Linearized Potential Function in Neural Network Optimization Using Csiszár Type of Tsallis Entropy
- arxiv url: http://arxiv.org/abs/2411.03611v1
- Date: Wed, 06 Nov 2024 02:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:24:12.382820
- Title: Designing a Linearized Potential Function in Neural Network Optimization Using Csiszár Type of Tsallis Entropy
- Title(参考訳): シザール型ツァリエントロピーを用いたニューラルネットワーク最適化における線形ポテンシャル関数の設計
- Authors: Keito Akiyama,
- Abstract要約: 本稿では,Csisz'ar型Tsallisエントロピーを用いた線形化ポテンシャル関数を利用する枠組みを確立する。
新しい枠組みによって指数収束結果が導出できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In recent years, learning for neural networks can be viewed as optimization in the space of probability measures. To obtain the exponential convergence to the optimizer, the regularizing term based on Shannon entropy plays an important role. Even though an entropy function heavily affects convergence results, there is almost no result on its generalization, because of the following two technical difficulties: one is the lack of sufficient condition for generalized logarithmic Sobolev inequality, and the other is the distributional dependence of the potential function within the gradient flow equation. In this paper, we establish a framework that utilizes a linearized potential function via Csisz\'{a}r type of Tsallis entropy, which is one of the generalized entropies. We also show that our new framework enable us to derive an exponential convergence result.
- Abstract(参考訳): 近年、ニューラルネットワークの学習は確率測度の空間における最適化と見なすことができる。
最適化器への指数収束を得るためには、シャノンエントロピーに基づく正則化項が重要な役割を果たす。
エントロピー函数は収束結果に大きく影響するが、次の2つの技術的困難により、一般化対数的ソボレフの不等式に対する十分条件が欠如していることと、勾配流方程式におけるポテンシャル関数の分布依存性である。
本稿では,一般化エントロピーの1つである Csisz\'{a}r 型 Tsallis entropy を通じて線形化ポテンシャル関数を利用する枠組みを確立する。
また、我々の新しい枠組みによって指数収束結果が導出できることも示している。
関連論文リスト
- GLinSAT: The General Linear Satisfiability Neural Network Layer By Accelerated Gradient Descent [12.409030267572243]
ニューラルネットワーク出力のバッチを、有界および一般線形制約を満たすものにする。
これは、すべての操作が微分可能で行列分解自由な、最初の一般線形満足層である。
論文 参考訳(メタデータ) (2024-09-26T03:12:53Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Optimization-Induced Graph Implicit Nonlinear Diffusion [64.39772634635273]
我々はGIND(Graph Implicit Diffusion)と呼ばれる新しいグラフ畳み込み変種を提案する。
GINDは暗黙的に隣人の無限のホップにアクセスでき、非線型拡散を伴う特徴を適応的に集約することで過度な平滑化を防いでいる。
学習された表現は、明示的な凸最適化目標の最小化として定式化できることを示す。
論文 参考訳(メタデータ) (2022-06-29T06:26:42Z) - Stochastic Langevin Differential Inclusions with Applications to Machine Learning [5.274477003588407]
ランゲヴィン型微分包含物の流動と性質に関する基礎的な結果を示す。
特に、解の存在が強く、また自由エネルギー関数の正準最小化が示される。
論文 参考訳(メタデータ) (2022-06-23T08:29:17Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - Universal scaling laws in the gradient descent training of neural
networks [10.508187462682308]
学習軌跡は,大きな訓練時間に明示的な境界によって特徴づけられることを示す。
結果は,期待される損失に基づいて訓練された大規模ネットワークの進化のスペクトル解析に基づいている。
論文 参考訳(メタデータ) (2021-05-02T16:46:38Z) - Towards a theory of machine learning [0.0]
ニューラルネットワークを,(1)状態ベクトル,(2)入力投影,(3)出力投影,(4)重み行列,(5)バイアスベクトル,(6)活性化マップ,(7)損失関数からなるセグタプルとして定義する。
論文 参考訳(メタデータ) (2020-04-15T00:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。