論文の概要: Emphasis on the Minimization of False Negatives or False Positives in
Binary Classification
- arxiv url: http://arxiv.org/abs/2204.02526v1
- Date: Wed, 6 Apr 2022 00:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 13:01:38.218989
- Title: Emphasis on the Minimization of False Negatives or False Positives in
Binary Classification
- Title(参考訳): 二分分類における偽陰性または偽陽性の最小化の強調
- Authors: Sanskriti Singh
- Abstract要約: モデル全体の性能やF1スコアを大幅に変更することなく、偽陰性や偽陽性を低減させる新しい手法が導入された。
この方法は、モデルを事前訓練した後、入力の実際の値に慎重に変更することを含む。
すべてのモデルにおいて、F1スコアの大幅な低下なく、リコールまたは精度の向上、偽陰性または偽陽性の最小化が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The minimization of specific cases in binary classification, such as false
negatives or false positives, grows increasingly important as humans begin to
implement more machine learning into current products. While there are a few
methods to put a bias towards the reduction of specific cases, these methods
aren't very effective, hence their minimal use in models. To this end, a new
method is introduced to reduce the False Negatives or False positives without
drastically changing the overall performance or F1 score of the model. This
method involving the careful change to the real value of the input after
pre-training the model. Presenting the results of this method being applied on
various datasets, some being more complex than others. Through experimentation
on multiple model architectures on these datasets, the best model was found. In
all the models, an increase in the recall or precision, minimization of False
Negatives or False Positives respectively, was shown without a large drop in F1
score.
- Abstract(参考訳): 偽陰性や偽陽性などのバイナリ分類における特定のケースの最小化は、人間が現在の製品により多くの機械学習を実装し始めるにつれて、ますます重要になる。
特定のケースを減らすためのバイアスを課す方法はいくつかあるが、これらの方法はあまり効果的ではないため、モデルでの使用は最小限である。
この目的のために、モデル全体の性能やF1スコアを大幅に変更することなく、偽陰性または偽陽性を低減する新しい方法が導入された。
この方法は、モデルを事前トレーニングした後の入力の実値への慎重な変更を含む。
この手法は様々なデータセットに適用され、いくつかは他のデータよりも複雑である。
これらのデータセット上で複数のモデルアーキテクチャの実験を通じて、最良のモデルが見つかった。
すべてのモデルにおいて、F1スコアの大幅な低下なく、リコールまたは精度の向上、偽陰性または偽陽性の最小化が示された。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Anomaly detection optimization using big data and deep learning to
reduce false-positive [0.0]
異常に基づく侵入検知システム(IDS)は、新たな脅威を検出する能力から、ホットな研究課題となっている。
偽陽性率が高いのは、異常IDSが一般的に適用されない理由である。
本研究では,従来のモデルではなく,より一般化可能なディープモデルを提案する。
論文 参考訳(メタデータ) (2022-09-28T09:52:26Z) - ELODI: Ensemble Logit Difference Inhibition for Positive-Congruent Training [110.52785254565518]
負のフリップ率(NFR)を減少させる既存の方法は、新しいモデルに古いモデルを模倣させたり、アンサンブルを使用したりすることで、全体的な精度を犠牲にしている。
我々は、NFRの低減におけるアンサンブルの役割を分析し、通常決定境界に近くない負のフリップを取り除くことを観察する。
本稿では,誤り率とNFRの両方でパラゴン性能を実現する分類システムを訓練するためのELODI(Ensemble Logit Difference Inhibition)を提案する。
論文 参考訳(メタデータ) (2022-05-12T17:59:56Z) - Stay Positive: Knowledge Graph Embedding Without Negative Sampling [1.8275108630751844]
損失関数に新たな正規化項を追加することにより、ネガティブサンプリングの必要性を回避できる訓練手順を提案する。
我々の2つの関係埋め込みモデル(DistMultとSimplE)の結果は、性能と速度の両面で提案の利点を示している。
論文 参考訳(メタデータ) (2022-01-07T20:09:27Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Positive-Congruent Training: Towards Regression-Free Model Updates [87.25247195148187]
画像分類において、サンプルワイドの不整合は「負のフリップ」として現れる
新しいモデルは、古い(参照)モデルによって正しく分類されたテストサンプルの出力を誤って予測する。
そこで本研究では,PC トレーニングのための簡易なアプローチである Focal Distillation を提案する。
論文 参考訳(メタデータ) (2020-11-18T09:00:44Z) - Monotonicity in practice of adaptive testing [0.0]
本稿では,最近提案された単調性勾配アルゴリズムを用いて学習した適応テストのためのベイジアンネットワークモデルについて検討する。
手法の質は、チェコ国立数学試験の大規模なデータセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-09-15T10:55:41Z) - SCE: Scalable Network Embedding from Sparsest Cut [20.08464038805681]
大規模ネットワーク埋め込みは、教師なしの方法で各ノードの潜在表現を学習することである。
このような対照的な学習手法の成功の鍵は、正と負のサンプルを引き出す方法である。
本稿では, 負のサンプルのみを用いた教師なしネットワーク埋め込みのためのSCEを提案する。
論文 参考訳(メタデータ) (2020-06-30T03:18:15Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。