論文の概要: Aligning Multiclass Neural Network Classifier Criterion with Task Performance via $F_β$-Score
- arxiv url: http://arxiv.org/abs/2405.20954v1
- Date: Fri, 31 May 2024 15:54:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 13:48:55.093084
- Title: Aligning Multiclass Neural Network Classifier Criterion with Task Performance via $F_β$-Score
- Title(参考訳): F_β$-Scoreによるタスク性能を考慮したマルチクラスニューラルネットワーク分類基準の調整
- Authors: Nathan Tsoi, Deyuan Li, Taesoo Daniel Lee, Marynel Vázquez,
- Abstract要約: マルチクラスニューラルネットワーク分類器は通常、クロスエントロピー損失を用いて訓練される。
クロスエントロピーの使用が、意図されたアプリケーション固有のパフォーマンス基準に適合する分類器が得られるかどうか疑問である。
提案手法は,マクロ-$F_beta$のソフトセットに基づく近似の最適化に利用できることを示す理論解析である。
- 参考スコア(独自算出の注目度): 2.8583357090792703
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multiclass neural network classifiers are typically trained using cross-entropy loss. Following training, the performance of this same neural network is evaluated using an application-specific metric based on the multiclass confusion matrix, such as the Macro $F_\beta$-Score. It is questionable whether the use of cross-entropy will yield a classifier that aligns with the intended application-specific performance criteria, particularly in scenarios where there is a need to emphasize one aspect of classifier performance. For example, if greater precision is preferred over recall, the $\beta$ value in the $F_\beta$ evaluation metric can be adjusted accordingly, but the cross-entropy objective remains unaware of this preference during training. We propose a method that addresses this training-evaluation gap for multiclass neural network classifiers such that users can train these models informed by the desired final $F_\beta$-Score. Following prior work in binary classification, we utilize the concepts of the soft-set confusion matrices and a piecewise-linear approximation of the Heaviside step function. Our method extends the $2 \times 2$ binary soft-set confusion matrix to a multiclass $d \times d$ confusion matrix and proposes dynamic adaptation of the threshold value $\tau$, which parameterizes the piecewise-linear Heaviside approximation during run-time. We present a theoretical analysis that shows that our method can be used to optimize for a soft-set based approximation of Macro-$F_\beta$ that is a consistent estimator of Macro-$F_\beta$, and our extensive experiments show the practical effectiveness of our approach.
- Abstract(参考訳): マルチクラスニューラルネットワーク分類器は通常、クロスエントロピー損失を用いて訓練される。
トレーニングの後、同じニューラルネットワークのパフォーマンスは、Macro $F_\beta$-Scoreのようなマルチクラス混乱行列に基づいて、アプリケーション固有のメトリックを使用して評価される。
クロスエントロピーの使用は、特に分類器のパフォーマンスの1つの側面を強調する必要があるシナリオにおいて、意図されたアプリケーション固有のパフォーマンス基準に合致する分類器が得られるかどうか疑問である。
例えば、リコールよりも高精度が望ましい場合、$F_\beta$評価基準の$\beta$値は、それに応じて調整できるが、クロスエントロピーの目標は、トレーニング中にこの好みに気付かないままである。
そこで本稿では,マルチクラスニューラルネットワーク分類器のトレーニング評価ギャップに対処し,ユーザが希望する$F_\beta$-Scoreでこれらのモデルを学習できるようにする手法を提案する。
二項分類における先行研究に続いて、ソフトセット混乱行列の概念とヘビサイドステップ関数の片方向線形近似を利用する。
提案手法は,2ドル2セントのソフトセット混同行列をマルチクラス$d \times d$の混同行列に拡張し,実行時の線形なHeaviside近似をパラメータ化した閾値$\tau$の動的適応を提案する。
提案手法は,Macro-$F_\beta$の一貫した推定器であるMacro-$F_\beta$のソフトセットに基づく近似を最適化するために有効であることを示す理論解析を行い,本手法の実用性を示す。
関連論文リスト
- Stochastic Q-learning for Large Discrete Action Spaces [79.1700188160944]
離散的な行動空間を持つ複雑な環境では、強化学習(RL)において効果的な意思決定が重要である
我々は、$n$アクションの集合全体を最適化するのとは対照的に、おそらく$mathcalO(log(n)$)$のような変数の集合のみを考える。
提示された値ベースのRL手法には、Q-learning、StochDQN、StochDDQNなどが含まれる。
論文 参考訳(メタデータ) (2024-05-16T17:58:44Z) - Hyperspherical Classification with Dynamic Label-to-Prototype Assignment [5.978350039412277]
トレーニング中に各プロトタイプに割り当てられたカテゴリを最適化する,シンプルで効果的な手法を提案する。
この最適化は、勾配降下とバイパルチドマッチングの逐次組み合わせを用いて解決する。
CIFAR-100では1.22%の精度で、ImageNet-200では2.15%の精度で競合他社よりも優れています。
論文 参考訳(メタデータ) (2024-03-25T17:01:34Z) - Kronecker-Factored Approximate Curvature for Modern Neural Network
Architectures [85.76673783330334]
線形重み付け層の2つの異なる設定がクロネッカー型近似曲率(K-FAC)の2つの風味を動機付けている
重み付けをそれぞれ設定したディープ・リニア・ネットワークに対して正確であることを示す。
グラフニューラルネットワークと視覚変換器の両方をトレーニングするために、これらの2つのK-FACの違いをほとんど観測しない。
論文 参考訳(メタデータ) (2023-11-01T16:37:00Z) - Efficient Maximal Coding Rate Reduction by Variational Forms [25.1177997721719]
我々は,最大符号化率低下の原理を,訓練精度を損なうことなく大幅にスケール可能な形式に再構成する。
画像分類実験により,提案した定式化が元のMCR$2$目標値の最適化よりも大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-03-31T20:39:53Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - A Minimax Probability Machine for Non-Decomposable Performance Measures [15.288802707471792]
不均衡な分類タスクは多くの現実世界のアプリケーションで広く使われている。
minimax確率機械はバイナリ分類問題の一般的な方法である。
本稿では,不均衡な分類タスクを扱うために使用できる,$f_beta$測度のための新しい minimax 確率マシン mpmf を開発した。
論文 参考訳(メタデータ) (2021-02-28T04:58:46Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Bridging the Gap: Unifying the Training and Evaluation of Neural Network
Binary Classifiers [0.4893345190925178]
本論文では,Heaviside関数の微分可能な近似と,ソフトセットを用いた典型的な混乱行列値の確率的ビューを組み合わせたニューラルネットワークバイナリ分類器の訓練手法を提案する。
我々の理論解析は,ソフトセットを用いた$F_$-Scoreなどの評価基準を最適化する手法の利点を示している。
論文 参考訳(メタデータ) (2020-09-02T22:13:26Z) - Structure Learning in Inverse Ising Problems Using $\ell_2$-Regularized
Linear Estimator [8.89493507314525]
モデルミスマッチにも拘わらず,正則化を伴わずに線形回帰を用いてネットワーク構造を完璧に識別できることを示す。
本稿では,2段階推定器を提案する。第1段階では隆起回帰を用い,比較的小さな閾値で推算を行う。
適切な正規化係数としきい値を持つ推定器は、0M/N1$でもネットワーク構造の完全同定を実現する。
論文 参考訳(メタデータ) (2020-08-19T09:11:33Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Supervised Quantile Normalization for Low-rank Matrix Approximation [50.445371939523305]
我々は、$X$ の値と $UV$ の値を行ワイズで操作できる量子正規化演算子のパラメータを学習し、$X$ の低ランク表現の質を改善する。
本稿では,これらの手法が合成およびゲノムデータセットに適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-02-08T21:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。