論文の概要: OCCAM: Towards Cost-Efficient and Accuracy-Aware Classification Inference
- arxiv url: http://arxiv.org/abs/2406.04508v2
- Date: Tue, 25 Feb 2025 03:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:20:12.967192
- Title: OCCAM: Towards Cost-Efficient and Accuracy-Aware Classification Inference
- Title(参考訳): OCCAM:コスト効率・正確性を考慮した分類手法
- Authors: Dujian Ding, Bicheng Xu, Laks V. S. Lakshmanan,
- Abstract要約: 我々は、分類クエリよりも最適な分類器割り当て戦略を計算するための原則的手法であるOCCAMを提案する。
さまざまな実世界のデータセットにおいて、OCCAMは40%のコスト削減を実現し、精度の低下はほとんど、あるいはまったくない。
- 参考スコア(独自算出の注目度): 11.267210747162961
- License:
- Abstract: Classification tasks play a fundamental role in various applications, spanning domains such as healthcare, natural language processing and computer vision. With the growing popularity and capacity of machine learning models, people can easily access trained classifiers as a service online or offline. However, model use comes with a cost and classifiers of higher capacity (such as large foundation models) usually incur higher inference costs. To harness the respective strengths of different classifiers, we propose a principled approach, OCCAM, to compute the best classifier assignment strategy over classification queries (termed as the optimal model portfolio) so that the aggregated accuracy is maximized, under user-specified cost budgets. Our approach uses an unbiased and low-variance accuracy estimator and effectively computes the optimal solution by solving an integer linear programming problem. On a variety of real-world datasets, OCCAM achieves 40% cost reduction with little to no accuracy drop.
- Abstract(参考訳): 分類タスクは、医療、自然言語処理、コンピュータビジョンといった分野にまたがる様々なアプリケーションにおいて、基本的な役割を果たす。
機械学習モデルの人気と能力の高まりにより、トレーニング済みの分類器をオンラインまたはオフラインで簡単にアクセスすることができる。
しかし、モデルの使用にはコストと(大きな基礎モデルのような)高いキャパシティの分類器が伴う。
異なる分類器の長所を利用するために,OCCAMという原則を用いて,分類クエリ(最適モデルポートフォリオとみなす)に対して最適な分類器割り当て戦略を計算し,ユーザ特定コスト予算の下で集約精度を最大化する手法を提案する。
提案手法は,不偏・低分散精度推定器を用いて,整数線形計画問題の解法により最適解を効果的に計算する。
さまざまな実世界のデータセットにおいて、OCCAMは40%のコスト削減を実現し、精度の低下はほとんど、あるいはまったくない。
関連論文リスト
- Classifier Ensemble for Efficient Uncertainty Calibration of Deep Neural Networks for Image Classification [1.0649605625763086]
我々は、期待誤差(ECE)と最大誤差(MCE)に着目し、精度と校正基準の両方を評価する。
我々の研究は、多数決投票やメタモデルに基づくアプローチを含む、単純で効率的な分類器アンサンブルを構築するための様々な方法を比較している。
論文 参考訳(メタデータ) (2025-01-17T10:16:18Z) - Model Cascading for Code: A Cascaded Black-Box Multi-Model Framework for Cost-Efficient Code Completion with Self-Testing [20.445496441396028]
本稿では,モデルカスケーディングと推論時自己テストアルゴリズムを組み合わせた新しいフレームワークを提案する。
このアプローチでは,自己生成テストを活用して精度を高め,モデルのカスケード決定を評価する。
実験結果から, カスケード手法はコストを平均26%削減し, ベストケースでは最大70%削減できることがわかった。
論文 参考訳(メタデータ) (2024-05-24T16:20:04Z) - Serverless Federated AUPRC Optimization for Multi-Party Collaborative
Imbalanced Data Mining [119.89373423433804]
有効指標としてAUPRC(Area Under Precision-Recall)を導入した。
サーバーレスのマルチパーティ共同トレーニングは、サーバーノードのボトルネックを避けることで通信コストを削減できる。
本稿では,AUPRCを直接最適化する ServerLess biAsed sTochastic gradiEnt (SLATE) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-06T06:51:32Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Rethinking Cost-sensitive Classification in Deep Learning via
Adversarial Data Augmentation [4.479834103607382]
コストに敏感な分類は、誤分類エラーがコストで大きく異なるアプリケーションにおいて重要である。
本稿では,過度パラメータ化モデルにコスト感受性を持たせるために,コスト依存型逆データ拡張フレームワークを提案する。
提案手法は,全体のコストを効果的に最小化し,臨界誤差を低減するとともに,全体的な精度で同等の性能を達成できる。
論文 参考訳(メタデータ) (2022-08-24T19:00:30Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Cascaded Classifier for Pareto-Optimal Accuracy-Cost Trade-Off Using
off-the-Shelf ANNs [0.0]
カスケード分類器の精度と効率を最大化する手法を導出する。
マルチステージ実現は、最先端の分類器を最適化するために利用できる。
論文 参考訳(メタデータ) (2021-10-27T08:16:11Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Training Over-parameterized Models with Non-decomposable Objectives [46.62273918807789]
より一般的なコスト行列を扱うために,ロジット調整という古典的な考え方を拡張した新たなコスト感受性損失を提案する。
私たちの損失は校正され、教師モデルの蒸留ラベルでさらに改善できます。
論文 参考訳(メタデータ) (2021-07-09T19:29:33Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。