論文の概要: Dynamic Classification: Leveraging Self-Supervised Classification to Enhance Prediction Performance
- arxiv url: http://arxiv.org/abs/2502.18891v1
- Date: Wed, 26 Feb 2025 07:11:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:56.378032
- Title: Dynamic Classification: Leveraging Self-Supervised Classification to Enhance Prediction Performance
- Title(参考訳): 動的分類:予測性能向上のための自己監督型分類の活用
- Authors: Ziyuan Zhong, Junyang Zhou,
- Abstract要約: 本稿では,ゼロミス検出と最小偽陽性の目的を達成するために,革新的な動的分類アルゴリズムを提案する。
このアルゴリズムは、データを教師付きモデルを用いてN相当のトレーニングサブセットとN予測サブセットに分割し、その後にN別個の予測モデルから独立した予測を行う。
実験結果から,データ分割誤差が最小である場合,動的分類アルゴリズムは誤り検出をゼロとし,誤検出を最小にすることで,例外的な性能を達成することが示された。
- 参考スコア(独自算出の注目度): 2.2736104746143355
- License:
- Abstract: In this paper, we propose an innovative dynamic classification algorithm designed to achieve the objective of zero missed detections and minimal false positives. The algorithm partitions the data into N equivalent training subsets and N prediction subsets using a supervised model, followed by independent predictions from N separate predictive models. This enables each predictive model to operate within a smaller data range, thereby improving overall accuracy. Additionally, the algorithm leverages data generated through supervised learning to further refine prediction results, filtering out predictions that do not meet accuracy requirements without the need to introduce additional models. Experimental results demonstrate that, when data partitioning errors are minimal, the dynamic classification algorithm achieves exceptional performance with zero missed detections and minimal false positives, significantly outperforming existing model ensembles. Even in cases where classification errors are larger, the algorithm remains comparable to state of the art models. The key innovations of this study include self-supervised classification learning, the use of small-range subset predictions, and the direct rejection of substandard predictions. While the current algorithm still has room for improvement in terms of automatic parameter tuning and classification model efficiency, it has demonstrated outstanding performance across multiple datasets. Future research will focus on optimizing the classification component to further enhance the algorithm's robustness and adaptability.
- Abstract(参考訳): 本稿では,ゼロミス検出と最小偽陽性の目的を達成するために,革新的な動的分類アルゴリズムを提案する。
このアルゴリズムは、データを教師付きモデルを用いてN相当のトレーニングサブセットとN予測サブセットに分割し、その後にN別個の予測モデルから独立した予測を行う。
これにより、各予測モデルはより小さなデータ範囲内で動作可能となり、全体的な精度が向上する。
さらに、教師付き学習によって生成されたデータを活用し、予測結果をさらに洗練し、追加モデルを導入することなく、精度の要求を満たしない予測をフィルタリングする。
実験結果から,データ分割誤差が最小となる場合,動的分類アルゴリズムは誤り検出をゼロとし,誤検出を最小にすることで例外的な性能を達成し,既存のモデルアンサンブルを著しく上回ることを示した。
分類誤差が大きい場合でも、アルゴリズムは最先端のモデルに匹敵する。
この研究の重要な革新は、自己教師付き分類学習、小範囲のサブセット予測の使用、および準標準予測の直接拒否である。
現在のアルゴリズムは、自動パラメータチューニングと分類モデル効率の観点からはまだ改善の余地があるが、複数のデータセットで優れた性能を示している。
今後の研究は、アルゴリズムの堅牢性と適応性をさらに向上するために、分類コンポーネントの最適化に焦点を当てる。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - DRoP: Distributionally Robust Data Pruning [11.930434318557156]
我々は、訓練されたモデルの分類バイアスにデータプルーニングが与える影響について、最初の系統的研究を行う。
そこで我々はDRoPを提案する。DRoPは,標準的なコンピュータビジョンベンチマークにおいて,その性能を実証的に実証し,分散的に頑健な手法である。
論文 参考訳(メタデータ) (2024-04-08T14:55:35Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Quantum-Assisted Feature Selection for Vehicle Price Prediction Modeling [0.0]
本研究では,一般平均情報係数やピアソン相関係数などの二元モデルとして検索を符号化する指標について検討する。
我々は,新しい指標を用いて合成データの最適部分集合を求めるための0.9の精度スコアを得る。
その結果、量子支援ルーチンを活用することで、予測モデル出力の品質を高めるソリューションが見つかることが分かりました。
論文 参考訳(メタデータ) (2021-04-08T20:48:44Z) - ALEX: Active Learning based Enhancement of a Model's Explainability [34.26945469627691]
アクティブラーニング(AL)アルゴリズムは、最小限のラベル付き例をブートストラップ方式で効率的な分類器を構築しようとする。
データ駆動学習の時代において、これは追求すべき重要な研究方向である。
本稿では,モデルの有効性に加えて,ブートストラップ段階におけるモデルの解釈可能性の向上も目指すAL選択関数の開発に向けた取り組みについて述べる。
論文 参考訳(メタデータ) (2020-09-02T07:15:39Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z) - Discrete-Valued Latent Preference Matrix Estimation with Graph Side
Information [12.836994708337144]
最適なサンプルの複雑さにマッチするアルゴリズムを開発する。
我々のアルゴリズムはエラーをモデル化し、予測性能の点で既存のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-03-16T06:29:24Z) - A Non-Intrusive Correction Algorithm for Classification Problems with
Corrupted Data [3.908426668574935]
破損したトレーニングデータを用いた複数クラス分類問題に対して,新しい補正アルゴリズムを提案する。
このアルゴリズムは、モデル予測に補正手順を追加することによって、訓練された分類モデルを後処理するという意味で、邪魔にならない。
論文 参考訳(メタデータ) (2020-02-11T20:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。