論文の概要: Cascaded Classifier for Pareto-Optimal Accuracy-Cost Trade-Off Using
off-the-Shelf ANNs
- arxiv url: http://arxiv.org/abs/2110.14256v1
- Date: Wed, 27 Oct 2021 08:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 14:46:55.097238
- Title: Cascaded Classifier for Pareto-Optimal Accuracy-Cost Trade-Off Using
off-the-Shelf ANNs
- Title(参考訳): オフザシェルフANNを用いたパレート最適精度コストトレードオフのためのカスケード分類器
- Authors: Cecilia Latotzke, Johnson Loh, and Tobias Gemmeke
- Abstract要約: カスケード分類器の精度と効率を最大化する手法を導出する。
マルチステージ実現は、最先端の分類器を最適化するために利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine-learning classifiers provide high quality of service in
classification tasks. Research now targets cost reduction measured in terms of
average processing time or energy per solution. Revisiting the concept of
cascaded classifiers, we present a first of its kind analysis of optimal
pass-on criteria between the classifier stages. Based on this analysis, we
derive a methodology to maximize accuracy and efficiency of cascaded
classifiers. On the one hand, our methodology allows cost reduction of 1.32x
while preserving reference classifier's accuracy. On the other hand, it allows
to scale cost over two orders while gracefully degrading accuracy. Thereby, the
final classifier stage sets the top accuracy. Hence, the multi-stage
realization can be employed to optimize any state-of-the-art classifier.
- Abstract(参考訳): 機械学習分類器は、分類タスクにおいて高い品質のサービスを提供する。
研究は現在、ソリューション当たりの平均処理時間やエネルギーの観点から測定されたコスト削減を目標としている。
カスケード分類器の概念を再考し、分類器の段階間における最適パスオン基準の種別分析を行った。
この解析に基づいて,カスケード分類器の精度と効率を最大化する手法を導出する。
一方,本手法では,参照分類器の精度を保ちつつ,コストを1.32倍削減できる。
一方で、精度を優雅に低下させながら、2つの注文でコストをスケールできる。
これにより、最終分類器ステージが最高精度を設定する。
したがって、多段階実現は任意の最先端の分類器を最適化するために用いられる。
関連論文リスト
- OCCAM: Towards Cost-Efficient and Accuracy-Aware Image Classification Inference [11.267210747162961]
画像分類クエリに対して最適な分類器割り当て戦略を計算するための原理的手法であるOCCAMを提案する。
さまざまな実世界のデータセットにおいて、OCCAMは40%のコスト削減を実現し、精度の低下はほとんど、あるいはまったくない。
論文 参考訳(メタデータ) (2024-06-06T21:05:39Z) - ProTeCt: Prompt Tuning for Taxonomic Open Set Classification [59.59442518849203]
分類学的オープンセット(TOS)設定では、ほとんどショット適応法はうまくいきません。
本稿では,モデル予測の階層的一貫性を校正する即時チューニング手法を提案する。
次に,階層整合性のための新しいPrompt Tuning(ProTeCt)手法を提案し,ラベル集合の粒度を分類する。
論文 参考訳(メタデータ) (2023-06-04T02:55:25Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - EXACT: How to Train Your Accuracy [6.144680854063938]
本稿では,モデル出力にアセンシティを導入し,予測精度を最適化することで,新しい最適化フレームワークを提案する。
線形モデルと深層画像分類の実験により,提案手法は広く用いられている分類損失の強力な代替手段であることが示された。
論文 参考訳(メタデータ) (2022-05-19T15:13:00Z) - Label, Verify, Correct: A Simple Few Shot Object Detection Method [93.84801062680786]
トレーニングセットから高品質な擬似アノテーションを抽出するための簡単な擬似ラベリング手法を提案する。
擬似ラベリングプロセスの精度を向上させるための2つの新しい手法を提案する。
提案手法は,既存手法と比較して,最先端ないし第2の性能を実現する。
論文 参考訳(メタデータ) (2021-12-10T18:59:06Z) - Re-Assessing the "Classify and Count" Quantification Method [88.60021378715636]
分類とカウント(CC)は、しばしば偏りのある推定器である。
以前の作業では、CCの適切に最適化されたバージョンを適切に使用できなかった。
最先端の手法に劣っているものの、ほぼ最先端の精度を実現している、と我々は主張する。
論文 参考訳(メタデータ) (2020-11-04T21:47:39Z) - Bayesian Few-Shot Classification with One-vs-Each P\'olya-Gamma
Augmented Gaussian Processes [7.6146285961466]
FSC(Few-shot Classification)は、人間のような機械学習への道のりの重要なステップである。
P'olya-Gamma augmentation と one-vs-each softmax approximation の新たな組み合わせを提案する。
標準的な数ショット分類ベンチマークと数ショットドメイン転送タスクの両方において、精度の向上と不確かさの定量化を実証した。
論文 参考訳(メタデータ) (2020-07-20T19:10:41Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Better Classifier Calibration for Small Data Sets [0.0]
キャリブレーションのためのデータ生成により,キャリブレーションアルゴリズムの性能が向上することを示す。
提案手法は計算コストを増大させるが、主なユースケースは小さなデータセットであるので、この余分な計算コストは重要ではない。
論文 参考訳(メタデータ) (2020-02-24T12:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。