論文の概要: Fundamental Limits of Deep Learning-Based Binary Classifiers Trained with Hinge Loss
- arxiv url: http://arxiv.org/abs/2309.06774v2
- Date: Tue, 15 Apr 2025 05:09:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:08:37.143869
- Title: Fundamental Limits of Deep Learning-Based Binary Classifiers Trained with Hinge Loss
- Title(参考訳): ヒンジ損失を学習した深層学習に基づく二項分類器の基本限界
- Authors: Tilahun M. Getu, Georges Kaddoum, M. Bennis,
- Abstract要約: ディープラーニング(DL)は多くの分野においていくつかのブレークスルーをもたらしている。
パターン分類問題を解くために用いたDLベースのアルゴリズムの試験性能を定量化する研究は行われていない。
- 参考スコア(独自算出の注目度): 18.643644453547104
- License:
- Abstract: Although deep learning (DL) has led to several breakthroughs in many disciplines, the fundamental understanding on why and how DL is empirically successful remains elusive. To attack this fundamental problem and unravel the mysteries behind DL's empirical successes, significant innovations toward a unified theory of DL have been made. Although these innovations encompass nearly fundamental advances in optimization, generalization, and approximation, no work has quantified the testing performance of a DL-based algorithm employed to solve a pattern classification problem. To overcome this fundamental challenge in part, this paper exposes the fundamental testing performance limits of DL-based binary classifiers trained with hinge loss. For binary classifiers that are based on deep rectified linear unit (ReLU) feedforward neural networks (FNNs) and deep FNNs with ReLU and Tanh activation, we derive their respective novel asymptotic testing performance limits, which are validated by extensive computer experiments.
- Abstract(参考訳): 深層学習(DL)は多くの分野においていくつかのブレークスルーをもたらしたが、なぜ、どのようにDLが経験的に成功したかに関する根本的な理解はいまだ解明されていない。
この根本的な問題に対処し、DLの実証的な成功の裏にある謎を解明するために、DLの統一理論への重要な革新がなされた。
これらの革新は最適化、一般化、近似の基本的な進歩をほとんど含んでいるが、パターン分類問題を解決するために使われるDLベースのアルゴリズムのテスト性能を定量化する研究は行われていない。
この根本的な課題を克服するために,本論文では,ヒンジロスを訓練したDLベースのバイナリ分類器の基本的なテスト性能限界を明らかにする。
深部修正線形単位(ReLU)フィードフォワードニューラルネットワーク(FNN)とReLUおよびTanhアクティベーションを持つ深部FNNをベースとしたバイナリ分類器に対しては,それぞれの新しい漸近試験性能限界を導出し,コンピュータ実験により検証した。
関連論文リスト
- Computability of Classification and Deep Learning: From Theoretical Limits to Practical Feasibility through Quantization [53.15874572081944]
ディープラーニングフレームワークにおける計算可能性について,2つの観点から検討する。
根底にある問題が十分に解決された場合でも、ディープニューラルネットワークを訓練する際のアルゴリズム上の制限を示す。
最後に、分類と深層ネットワークトレーニングの定量化バージョンにおいて、計算可能性の制限は発生せず、一定の程度まで克服可能であることを示す。
論文 参考訳(メタデータ) (2024-08-12T15:02:26Z) - Improving PINNs By Algebraic Inclusion of Boundary and Initial Conditions [0.1874930567916036]
AI for Science」は、AI技術を用いた基本的な科学的問題を解決することを目的としている。
本研究では、トレーニング対象のモデルを単にニューラルネットワークから非線形変換に変更する可能性について検討する。
これにより、損失関数の項数は標準のPINN損失よりも減少する。
論文 参考訳(メタデータ) (2024-07-30T11:19:48Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Deep Transform and Metric Learning Networks [30.753361147185995]
本稿では,リニア層とリカレントニューラルネットワークの組み合わせとして,各dl層を定式化し,解くことができる新しい深層dl手法を提案する。
ニューラル・ネットワークとディープ・DLの新たな知見を明らかにし、ディープ・トランスフォーメーションとメトリクスを共同学習する斬新で効率的で競争的なアプローチを提供します。
論文 参考訳(メタデータ) (2021-04-21T03:10:15Z) - A Lagrangian Dual-based Theory-guided Deep Neural Network [0.0]
The Lagrangian dual-based TgNN (TgNN-LD) is proposed to improve the effective of TgNN。
実験により、ラグランジアン双対ベースTgNNの優位性が示された。
論文 参考訳(メタデータ) (2020-08-24T02:06:19Z) - Online Kernel based Generative Adversarial Networks [0.45880283710344055]
オンラインカーネルベースのジェネレーティブ・アドバイザリアル・ネットワーク(OKGAN)は,モード崩壊やサイクリングなど,多くのトレーニング問題を緩和する。
OKGANは、合成データ上の他のGANの定式化よりも、逆KL偏差に対して、劇的に優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-06-19T22:54:01Z) - Optimization and Generalization of Regularization-Based Continual
Learning: a Loss Approximation Viewpoint [35.5156045701898]
各タスクの損失関数の2階Taylor近似として定式化することにより、正規化に基づく連続学習の新しい視点を提供する。
この観点から、正規化に基づく連続学習の最適化側面(収束)と一般化特性(有限サンプル保証)を考察する。
論文 参考訳(メタデータ) (2020-06-19T06:08:40Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。