論文の概要: The Case for High-Accuracy Classification: Think Small, Think Many!
- arxiv url: http://arxiv.org/abs/2103.10350v1
- Date: Thu, 18 Mar 2021 16:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:12:35.836318
- Title: The Case for High-Accuracy Classification: Think Small, Think Many!
- Title(参考訳): 高精度分類の事例:小さく考えて、たくさん考えて!
- Authors: Mohammad Hosseini, Mahmudul Hasan
- Abstract要約: 簡単な色特徴の組み合わせに基づく効率的で軽量な深層分類アンサンブル構造を提案する。
評価の結果,resnet-50モデルと比較して予測精度が大幅に向上した。
- 参考スコア(独自算出の注目度): 4.817521691828748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To facilitate implementation of high-accuracy deep neural networks especially
on resource-constrained devices, maintaining low computation requirements is
crucial. Using very deep models for classification purposes not only decreases
the neural network training speed and increases the inference time, but also
need more data for higher prediction accuracy and to mitigate false positives.
In this paper, we propose an efficient and lightweight deep classification
ensemble structure based on a combination of simple color features, which is
particularly designed for "high-accuracy" image classifications with low false
positives. We designed, implemented, and evaluated our approach for explosion
detection use-case applied to images and videos. Our evaluation results based
on a large test test show considerable improvements on the prediction accuracy
compared to the popular ResNet-50 model, while benefiting from 7.64x faster
inference and lower computation cost.
While we applied our approach to explosion detection, our approach is general
and can be applied to other similar classification use cases as well. Given the
insight gained from our experiments, we hence propose a "think small, think
many" philosophy in classification scenarios: that transforming a single,
large, monolithic deep model into a verification-based step model ensemble of
multiple small, simple, lightweight models with narrowed-down color spaces can
possibly lead to predictions with higher accuracy.
- Abstract(参考訳): リソース制約のあるデバイスにおいて、特に高精度なディープニューラルネットワークの実装を容易にするため、低計算要求の維持が不可欠である。
分類目的に非常に深いモデルを使用すると、ニューラルネットワークのトレーニング速度が低下し、推論時間が増加するだけでなく、高い予測精度と偽陽性の軽減のために、より多くのデータが必要になる。
本稿では, 簡易な色特徴の組み合わせをベースとした, 高速で軽量な深層分類アンサンブル構造を提案する。
画像やビデオに適用した爆発検出用ユースケースの設計,実装,評価を行った。
大規模実験による評価結果から,resnet-50モデルと比較して予測精度が大幅に向上し,7.64倍の高速化と計算コストの低減が得られた。
爆発検出に本手法を適用したが,本手法は一般的であり,他の類似した分類用途にも適用できる。
一つの大きなモノリシックなディープモデルを検証ベースのステップモデルアンサンブルに変換することで、狭い色空間を持つ複数の小型でシンプルで軽量なモデルの集合体を、より高精度に予測することができる。
関連論文リスト
- Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - Faster, Lighter, More Accurate: A Deep Learning Ensemble for Content
Moderation [2.1756081703276]
本稿では,効率的かつ軽量な深層分類アンサンブル構造を提案する。
我々のアプローチは、暴力的コンテンツの高精度な分類のために設計された、単純な視覚的特徴の組み合わせに基づいている。
評価の結果,予測精度は7.64倍に向上し,計算コストの低減が図られた。
論文 参考訳(メタデータ) (2023-09-10T21:54:03Z) - Quantifying lottery tickets under label noise: accuracy, calibration,
and complexity [6.232071870655069]
ディープニューラルネットワークのプルーニングは、機械学習の計算負担を軽減するために広く利用されている戦略である。
スパース二重降下法を用いて一意的に同定し,分類タスクに付随するプルーンドモデルを特徴付ける。
論文 参考訳(メタデータ) (2023-06-21T11:35:59Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - T-RECX: Tiny-Resource Efficient Convolutional neural networks with
early-eXit [0.0]
本稿では,早期出口中間分類器の追加により早期出口中間分類器が拡張可能であることを示す。
我々の技術は、小型CNNモデルに特化している。
その結果, T-RecX 1) はベースラインネットワークの精度を向上し, 2) FLOPS の平均 31.58% の削減を実現した。
論文 参考訳(メタデータ) (2022-07-14T02:05:43Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Improving Video Instance Segmentation by Light-weight Temporal
Uncertainty Estimates [11.580916951856256]
本稿では,インスタンスセグメンテーションネットワークの不確かさをモデル化するための時間動的手法を提案する。
本稿では,偽陽性の検出と予測品質の推定に本手法を適用した。
提案手法は、容易に訓練されたニューラルネットワークとビデオシーケンス入力のみを必要とする。
論文 参考訳(メタデータ) (2020-12-14T13:39:05Z) - A Partial Regularization Method for Network Compression [0.0]
本稿では, モデル圧縮を高速に行うために, 完全正則化と言われる全てのパラメータをペナライズする元の形式ではなく, 部分正則化のアプローチを提案する。
実験結果から, ほぼすべての状況において, 走行時間の減少を観測することにより, 計算複雑性を低減できることが示唆された。
驚くべきことに、複数のデータセットのトレーニングフェーズとテストフェーズの両方において、回帰フィッティング結果や分類精度などの重要な指標を改善するのに役立ちます。
論文 参考訳(メタデータ) (2020-09-03T00:38:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。