論文の概要: Reformulating van Rijsbergen's $F_{\beta}$ metric for weighted binary
cross-entropy
- arxiv url: http://arxiv.org/abs/2210.16458v1
- Date: Sat, 29 Oct 2022 01:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:47:26.787151
- Title: Reformulating van Rijsbergen's $F_{\beta}$ metric for weighted binary
cross-entropy
- Title(参考訳): 重み付き二元クロスエントロピーのためのvan rijsbergen氏の$f_{\beta}$メトリックの再構成
- Authors: Satesh Ramdhani
- Abstract要約: 本報告では,学習結果の報知のために,異なる損失関数とともに性能指標を組み込むことについて検討する。
焦点はvan Rijsbergens $F_beta$ metric -- 分類パフォーマンスを計測する一般的な選択肢である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The separation of performance metrics from gradient based loss functions may
not always give optimal results and may miss vital aggregate information. This
paper investigates incorporating a performance metric alongside differentiable
loss functions to inform training outcomes. The goal is to guide model
performance and interpretation by assuming statistical distributions on this
performance metric for dynamic weighting. The focus is on van Rijsbergens
$F_{\beta}$ metric -- a popular choice for gauging classification performance.
Through distributional assumptions on the $F_{\beta}$, an intermediary link can
be established to the standard binary cross-entropy via dynamic penalty
weights. First, the $F_{\beta}$ metric is reformulated to facilitate assuming
statistical distributions with accompanying proofs for the cumulative density
function. These probabilities are used within a knee curve algorithm to find an
optimal $\beta$ or $\beta_{opt}$. This $\beta_{opt}$ is used as a weight or
penalty in the proposed weighted binary cross-entropy. Experimentation on
publicly available data with imbalanced classes mostly yields better and
interpretable results as compared to the baseline. For example, for the IMDB
text data with known labeling errors, a 14% boost is shown. This methodology
can accelerate training and provide better interpretation.
- Abstract(参考訳): 勾配に基づく損失関数からパフォーマンス指標を分離することは、必ずしも最適な結果を与えるとは限らないし、重要な集約情報を見逃すこともある。
本報告では,学習結果の報知のために,異なる損失関数とともに性能指標を組み込むことを検討した。
目標は、動的重み付けのためのこのパフォーマンスメトリックの統計的分布を仮定することで、モデルのパフォーマンスと解釈を導くことである。
van Rijsbergens $F_{\beta}$ metric -- 分類パフォーマンスを計測する一般的な選択肢である。
f_{\beta}$ の分布的仮定により、動的ペナルティ重みによる標準二項クロスエントロピーへの中間リンクを確立することができる。
まず、$F_{\beta}$メトリックは累積密度関数の証明を伴う統計分布の仮定を容易にするために再構成される。
これらの確率は膝曲線アルゴリズム内で最適な$\beta$または$\beta_{opt}$を求めるために用いられる。
この$\beta_{opt}$ は、重み付き二項クロスエントロピーの重みまたはペナルティとして使われる。
不均衡なクラスを持つ公開データの実験は、ベースラインと比較して、より良く解釈可能な結果をもたらす。
例えば、既知のラベル付けエラーのあるIMDBテキストデータでは、14%のアップが示されている。
この手法は訓練を加速し、より良い解釈を提供する。
関連論文リスト
- Exploiting Pre-trained Models for Drug Target Affinity Prediction with Nearest Neighbors [58.661454334877256]
薬物-標的結合親和性(DTA)予測は、薬物発見に不可欠である。
DTA予測へのディープラーニング手法の適用にもかかわらず、達成された精度は依然として準最適である。
事前学習したDTA予測モデルに適用した非表現埋め込みに基づく検索手法である$k$NN-DTAを提案する。
論文 参考訳(メタデータ) (2024-07-21T15:49:05Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Observable adjustments in single-index models for regularized
M-estimators [3.5353632767823506]
サンプルサイズが$n$ と dimension$p$ がともに増加するレジームでは、$hatbeta$ と予測値 $Xhatbeta$ の実証分布の振る舞いが以前特徴づけられた。
本稿では、$hatbeta$と$Xhatbeta$の実証分布を記述するために異なる理論を開発する。
論文 参考訳(メタデータ) (2022-04-14T14:32:02Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - A surrogate loss function for optimization of $F_\beta$ score in binary
classification with imbalanced data [0.0]
提案されたサーロゲート$F_beta$損失関数の勾配パスは、$F_beta$スコアの大きなサンプル限界の勾配パスを近似する。
F_beta$損失関数はクラス不均衡下でのF_beta$スコアの最適化に有効であることを示す。
論文 参考訳(メタデータ) (2021-04-03T18:36:23Z) - A First Step Towards Distribution Invariant Regression Metrics [1.370633147306388]
分類において、F-Measure や Accuracy のようなパフォーマンス指標は、クラス分布に大きく依存していると繰り返し述べられている。
ロボットアプリケーションにおけるオドメトリパラメータの分布は,例えば,異なるセッション間で大きく異なる可能性がある。
ここでは、すべての関数値に対して等しく機能する回帰アルゴリズムや、高速のような特定の境界領域にフォーカスする回帰アルゴリズムが必要です。
論文 参考訳(メタデータ) (2020-09-10T23:40:46Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z) - The Real-World-Weight Cross-Entropy Loss Function: Modeling the Costs of
Mislabeling [0.0]
実世界のクロスエントロピー損失関数を2値・1ラベルの分類変種に導入する。
どちらの変種も、現実世界のコストを重みとして直接入力することができる。
シングルラベル・マルチカテゴリ分類では、機械学習モデルのトレーニング中にラベルで重み付けされた確率的偽陽性の直接化も可能である。
論文 参考訳(メタデータ) (2020-01-03T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。