論文の概要: A comprehensive theoretical framework for the optimization of neural
networks classification performance with respect to weighted metrics
- arxiv url: http://arxiv.org/abs/2305.13472v1
- Date: Mon, 22 May 2023 20:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 20:51:49.474370
- Title: A comprehensive theoretical framework for the optimization of neural
networks classification performance with respect to weighted metrics
- Title(参考訳): 重み付きメトリクスに対するニューラルネットワーク分類性能の最適化のための包括的な理論的枠組み
- Authors: Francesco Marchetti, Sabrina Guastavino, Cristina Campi, Federico
Benvenuto, Michele Piana
- Abstract要約: 多くの文脈において、ニューラルネットワークによって実行される予測の良さを評価するために、カスタマイズされた分類スコアと重み付けされた分類スコアが設計されている。
我々は、重み付けされた分類指標を形式化し、モデルにこれらの関心を最適化させる損失の構築を可能にする完全な設定を提供する。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In many contexts, customized and weighted classification scores are designed
in order to evaluate the goodness of the predictions carried out by neural
networks. However, there exists a discrepancy between the maximization of such
scores and the minimization of the loss function in the training phase. In this
paper, we provide a complete theoretical setting that formalizes weighted
classification metrics and then allows the construction of losses that drive
the model to optimize these metrics of interest. After a detailed theoretical
analysis, we show that our framework includes as particular instances
well-established approaches such as classical cost-sensitive learning, weighted
cross entropy loss functions and value-weighted skill scores.
- Abstract(参考訳): 多くの文脈において、ニューラルネットワークが行う予測の良さを評価するために、カスタマイズされた重み付けされた分類スコアが設計されている。
しかし、これらのスコアの最大化とトレーニングフェーズにおける損失関数の最小化には相違がある。
本稿では、重み付けされた分類指標を定式化し、モデルにこれらの指標を最適化させる損失の構築を可能にする完全な理論的設定を提供する。
より詳細な理論的分析を行った結果,古典的コスト感性学習,重み付きクロスエントロピー損失関数,値重み付きスキルスコアといった,確立されたアプローチの具体例が示された。
関連論文リスト
- Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - On the Generalization Ability of Unsupervised Pretraining [53.06175754026037]
教師なし学習の最近の進歩は、教師なし事前学習、および微調整がモデル一般化を改善することを示している。
本稿では、教師なし事前学習中に得られた知識の伝達可能性に影響を及ぼす重要な要因をその後の微調整フェーズに照らす新しい理論的枠組みを提案する。
この結果は教師なし事前学習と微調整のパラダイムの理解を深め、より効果的な事前学習アルゴリズムの設計に光を当てることができる。
論文 参考訳(メタデータ) (2024-03-11T16:23:42Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Random Linear Projections Loss for Hyperplane-Based Optimization in Neural Networks [22.348887008547653]
この研究はRandom Linear Projections (RLP)損失を導入し、これはデータ内の幾何学的関係を利用してトレーニング効率を向上させる新しいアプローチである。
ベンチマークデータセットと合成例を用いて実施した経験的評価では、従来の損失関数でトレーニングされたニューラルネットワークは、従来の損失関数でトレーニングされたニューラルネットワークよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2023-11-21T05:22:39Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Unleashing the power of Neural Collapse for Transferability Estimation [42.09673383041276]
よく訓練されたモデルは神経崩壊の現象を示す。
本稿では、転送可能性推定のためのFair Collapse(FaCe)と呼ばれる新しい手法を提案する。
FaCeは、画像分類、セマンティックセグメンテーション、テキスト分類など、さまざまなタスクにおける最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-10-09T14:30:10Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。