論文の概要: Evidence, Definitions and Algorithms regarding the Existence of
Cohesive-Convergence Groups in Neural Network Optimization
- arxiv url: http://arxiv.org/abs/2403.05610v1
- Date: Fri, 8 Mar 2024 13:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:58:13.466573
- Title: Evidence, Definitions and Algorithms regarding the Existence of
Cohesive-Convergence Groups in Neural Network Optimization
- Title(参考訳): ニューラルネットワーク最適化における結合収束群の存在に関する証拠・定義・アルゴリズム
- Authors: Thien An L. Nguyen
- Abstract要約: ニューラルネットワークのプロセスを理解することは、機械学習の分野で最も複雑で重要な問題の1つである。
本稿では,ニューラルネットワークの理論的収束に着目した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the convergence process of neural networks is one of the most
complex and crucial issues in the field of machine learning. Despite the close
association of notable successes in this domain with the convergence of
artificial neural networks, this concept remains predominantly theoretical. In
reality, due to the non-convex nature of the optimization problems that
artificial neural networks tackle, very few trained networks actually achieve
convergence. To expand recent research efforts on artificial-neural-network
convergence, this paper will discuss a different approach based on observations
of cohesive-convergence groups emerging during the optimization process of an
artificial neural network.
- Abstract(参考訳): ニューラルネットワークの収束過程を理解することは、機械学習の分野で最も複雑で重要な問題のひとつだ。
この領域での顕著な成功と人工ニューラルネットワークの収束は密接な関係にあるが、この概念は主に理論的に続いている。
実際、ニューラルネットワークが取り組む最適化問題の非凸性のため、実際に収束する訓練されたネットワークはごくわずかである。
本稿では,人工神経ネットワークの最適化過程において出現する結束収束群の観察に基づく異なるアプローチについて述べる。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Correlative Information Maximization: A Biologically Plausible Approach
to Supervised Deep Neural Networks without Weight Symmetry [43.584567991256925]
本稿では,生体神経ネットワークにおける信号伝達を前方方向と後方方向の両方で記述するための新しい規範的アプローチを提案する。
このフレームワークは、従来のニューラルネットワークとバックプロパゲーションアルゴリズムの生物学的評価可能性に関する多くの懸念に対処する。
提案手法は,前方信号伝搬路と後方信号伝搬路の重み対称性問題に対する自然な解法を提供する。
論文 参考訳(メタデータ) (2023-06-07T22:14:33Z) - Spiking Generative Adversarial Network with Attention Scoring Decoding [4.5727987473456055]
スパイクニューラルネットワークは、脳のような処理に近づいた近似を提供する。
我々は複雑な画像を扱うことができるスパイク生成対向ネットワークを構築した。
論文 参考訳(メタデータ) (2023-05-17T14:35:45Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z) - Topological Insights into Sparse Neural Networks [16.515620374178535]
本稿では,グラフ理論の観点から,スパースニューラルネットワークトポロジの理解と比較を行うアプローチを提案する。
まず、異なるスパースニューラルネットワーク間の距離を測定するために、NNSTD(Neural Network Sparse Topology Distance)を提案する。
適応的なスパース接続は、高密度モデルよりも優れた非常に異なるトポロジを持つスパースサブネットワークを常に顕在化することができることを示す。
論文 参考訳(メタデータ) (2020-06-24T22:27:21Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。