論文の概要: Problem-dependent attention and effort in neural networks with
applications to image resolution and model selection
- arxiv url: http://arxiv.org/abs/2201.01415v4
- Date: Fri, 14 Apr 2023 00:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 17:22:02.237962
- Title: Problem-dependent attention and effort in neural networks with
applications to image resolution and model selection
- Title(参考訳): ニューラルネットワークにおける問題依存的注意と努力 : 画像分解能とモデル選択への応用
- Authors: Chris Rohlfs
- Abstract要約: 本稿では,画像分類におけるデータと計算コストを削減するために,アンサンブルに基づく2つの新しい手法を提案する。
任意の分類器で使用することができ、追加のトレーニングを必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces two new ensemble-based methods to reduce the data and
computation costs of image classification. They can be used with any set of
classifiers and do not require additional training. In the first approach, data
usage is reduced by only analyzing a full-sized image if the model has low
confidence in classifying a low-resolution pixelated version. When applied on
the best performing classifiers considered here, data usage is reduced by 61.2%
on MNIST, 69.6% on KMNIST, 56.3% on FashionMNIST, 84.6% on SVHN, 40.6% on
ImageNet, and 27.6% on ImageNet-V2, all with a less than 5% reduction in
accuracy. However, for CIFAR-10, the pixelated data are not particularly
informative, and the ensemble approach increases data usage while reducing
accuracy. In the second approach, compute costs are reduced by only using a
complex model if a simpler model has low confidence in its classification.
Computation cost is reduced by 82.1% on MNIST, 47.6% on KMNIST, 72.3% on
FashionMNIST, 86.9% on SVHN, 89.2% on ImageNet, and 81.5% on ImageNet-V2, all
with a less than 5% reduction in accuracy; for CIFAR-10 the corresponding
improvements are smaller at 13.5%. When cost is not an object, choosing the
projection from the most confident model for each observation increases
validation accuracy to 81.0% from 79.3% for ImageNet and to 69.4% from 67.5%
for ImageNet-V2.
- Abstract(参考訳): 本稿では,画像分類データと計算コストの削減を目的としたアンサンブルに基づく2つの手法を提案する。
これらは任意の分類器で使用することができ、追加のトレーニングは必要ない。
第1のアプローチでは、モデルが低解像度のピクセル化バージョンを分類する信頼度が低い場合にのみ、フルサイズの画像を分析することでデータ使用量を減少させる。
ここで考慮された最高の性能分類器に適用すると、データ使用量はMNISTで61.2%、KMNISTで69.6%、FashionMNISTで56.3%、SVHNで84.6%、ImageNet-V2で40.6%、ImageNet-V2で27.6%減少し、精度は5%未満である。
しかし、CIFAR-10では、画素データには特に意味がなく、アンサンブルアプローチは精度を低下させながらデータ使用量を増加させる。
第2のアプローチでは、より単純なモデルがその分類に対する信頼度が低い場合、複雑なモデルのみを使用することで計算コストを削減できる。
計算コストはmnistで82.1%、kmnistで47.6%、fashionmnistで72.3%、svhnで86.9%、imagenet-v2で89.2%、imagenet-v2で81.5%削減され、いずれも精度は5%未満である。
コストが対象でない場合、各観測において最も確実なモデルからプロジェクションを選択すると、検証精度は ImageNet 79.3% から 81.0% 、ImageNet-V2 は 67.5% から 69.4% に向上する。
関連論文リスト
- An Augmentation-based Model Re-adaptation Framework for Robust Image Segmentation [0.799543372823325]
セグメント化モデルの一般化を促進するための拡張型モデル再適応フレームワーク(AMRF)を提案する。
従来のモデル(FCNとU-Net)と事前訓練されたSAMモデルからセグメント化マスクを観察することにより、トレーニング効率とモデル性能を最適にバランスさせる最小拡張セットを決定する。
その結果,細調整したFCNは収穫精度が3.29%,収穫精度が3.02%,時間連続データセットが5.27%,分類精度が4.04%を超えることがわかった。
論文 参考訳(メタデータ) (2024-09-14T21:01:49Z) - Speeding Up Image Classifiers with Little Companions [5.9999780224657195]
ニューラルネットワークのスケールアップは、大規模な言語とビジョンモデルの成功の鍵となるレシピである。
まず、軽量の"リトル"モデルを用いて、すべてのサンプルの予測を行う。
Little-Bigはまた、Intern Image-G-512をスピードアップし、90%のImageNet-1Kトップ1の精度を達成した。
論文 参考訳(メタデータ) (2024-06-24T20:11:46Z) - A Lightweight and Accurate Face Detection Algorithm Based on Retinaface [0.5076419064097734]
Retinaface に基づく軽量かつ高精度な顔検出アルゴリズム LAFD (Light and accurate face detection) を提案する。
アルゴリズムのバックボーンネットワークは、畳み込みカーネルのサイズを調整する修正されたMobileNetV3ネットワークである。
入力画像が前処理され、長さが1560px、幅が1200pxとなると、平均精度は86.2%となる。
論文 参考訳(メタデータ) (2023-08-08T15:36:57Z) - FLIQS: One-Shot Mixed-Precision Floating-Point and Integer Quantization Search [50.07268323597872]
本稿では,整数浮動小数点モデルと低精度浮動小数点モデルの両方において再学習を不要とする,最初のワンショット混合量子化探索を提案する。
整数モデルでは、ImageNet上のResNet-18の精度を1.31%、ResNet-50の精度を0.90%向上させる。
従来のFP8モデルと比較して,新しい混合精度浮動小数点探索を探索し,最大0.98%改善した。
論文 参考訳(メタデータ) (2023-08-07T04:17:19Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Deep learning-based Edge-aware pre and post-processing methods for JPEG
compressed images [7.803786205476811]
本稿では,前処理と後処理の深いCNN間の標準を包含する学習ベース圧縮方式を提案する。
本稿では, 圧縮圧縮ネットワークを利用した先行手法の改良を, (a) 従来の作業でよく発生するぼやけを防止するエッジ認識損失関数, (b) 処理後処理のための超解像畳み込みニューラルネットワーク, および, 対応する前処理ネットワークを導入し, レート歪み性能の向上を図る。
論文 参考訳(メタデータ) (2021-04-11T05:50:31Z) - Revisiting Batch Normalization for Improving Corruption Robustness [85.20742045853738]
モデルロバスト性を改善するために, モデルロバスト性を改善するために, バッチ正規化統計の修正を提案する。
モデルを再トレーニングすることなく、BN統計をいくつかの表現サンプル上で単純に推定し、適応させることで、大きなマージンによる腐敗の堅牢性を向上させることが判明した。
論文 参考訳(メタデータ) (2020-10-07T19:56:47Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。