論文の概要: Problem-dependent attention and effort in neural networks with an
application to image resolution
- arxiv url: http://arxiv.org/abs/2201.01415v1
- Date: Wed, 5 Jan 2022 02:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 17:44:33.308400
- Title: Problem-dependent attention and effort in neural networks with an
application to image resolution
- Title(参考訳): ニューラルネットワークにおける問題依存的注意と努力 : 画像分解への応用
- Authors: Chris Rohlfs
- Abstract要約: 本稿では,人や動物が,その難易度に応じて,問題に捧げる注意度や努力度を変動させる生物学的現象に着想を得た,ニューラルネットワークに基づく新しい推定手法を提案する。
このアプローチは、GoogleのStreet View House Numbersデータセットからの数値認識問題に適用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a new neural network-based estimation approach that is
inspired by the biological phenomenon whereby humans and animals vary the
levels of attention and effort that they dedicate to a problem depending upon
its difficulty. The proposed approach leverages alternate models' internal
levels of confidence in their own projections. If the least costly model is
confident in its classification, then that is the classification used; if not,
the model with the next lowest cost of implementation is run, and so on. This
use of successively more complex models -- together with the models' internal
propensity scores to evaluate their likelihood of being correct -- makes it
possible to substantially reduce resource use while maintaining high standards
for classification accuracy. The approach is applied to the digit recognition
problem from Google's Street View House Numbers dataset, using Multilayer
Perceptron (MLP) neural networks trained on high- and low-resolution versions
of the digit images. The algorithm examines the low-resolution images first,
only moving to higher resolution images if the classification from the initial
low-resolution pass does not have a high degree of confidence. For the MLPs
considered here, this sequential approach enables a reduction in resource usage
of more than 50\% without any sacrifice in classification accuracy.
- Abstract(参考訳): 本稿では,人間と動物が,その困難度に応じて問題に投じる注意と努力のレベルを変える生物学的現象に触発された,ニューラルネットワークに基づく新しい推定手法を提案する。
提案手法は、代替モデルの内部信頼度を自分自身の投射に活用する。
もし最もコストのかかるモデルがその分類に自信を持っているなら、それは使用される分類であり、そうでなければ、次の最低の実装コストのモデルが実行される、などである。
この連続的な複雑なモデルの使用は、モデルの内部適合度スコアとともに、正しい可能性を評価することで、分類精度の高い標準を維持しながら、リソースの使用を大幅に削減することができる。
このアプローチは、GoogleのStreet View House Numbersデータセットの数値認識問題に適用され、Digital Imageの高解像度および低解像度バージョンでトレーニングされたMultilayer Perceptron(MLP)ニューラルネットワークを使用する。
アルゴリズムはまず低解像度画像を調べ、初期低解像度パスからの分類が高い信頼性を持っていない場合にのみ高解像度画像に移行する。
ここで検討したMLPに対して、このシーケンシャルアプローチは、分類精度を犠牲にすることなく、50\%以上のリソース使用量の削減を可能にする。
関連論文リスト
- An Augmentation-based Model Re-adaptation Framework for Robust Image Segmentation [0.799543372823325]
セグメント化モデルの一般化を促進するための拡張型モデル再適応フレームワーク(AMRF)を提案する。
従来のモデル(FCNとU-Net)と事前訓練されたSAMモデルからセグメント化マスクを観察することにより、トレーニング効率とモデル性能を最適にバランスさせる最小拡張セットを決定する。
その結果,細調整したFCNは収穫精度が3.29%,収穫精度が3.02%,時間連続データセットが5.27%,分類精度が4.04%を超えることがわかった。
論文 参考訳(メタデータ) (2024-09-14T21:01:49Z) - Speeding Up Image Classifiers with Little Companions [5.9999780224657195]
ニューラルネットワークのスケールアップは、大規模な言語とビジョンモデルの成功の鍵となるレシピである。
まず、軽量の"リトル"モデルを用いて、すべてのサンプルの予測を行う。
Little-Bigはまた、Intern Image-G-512をスピードアップし、90%のImageNet-1Kトップ1の精度を達成した。
論文 参考訳(メタデータ) (2024-06-24T20:11:46Z) - A Lightweight and Accurate Face Detection Algorithm Based on Retinaface [0.5076419064097734]
Retinaface に基づく軽量かつ高精度な顔検出アルゴリズム LAFD (Light and accurate face detection) を提案する。
アルゴリズムのバックボーンネットワークは、畳み込みカーネルのサイズを調整する修正されたMobileNetV3ネットワークである。
入力画像が前処理され、長さが1560px、幅が1200pxとなると、平均精度は86.2%となる。
論文 参考訳(メタデータ) (2023-08-08T15:36:57Z) - FLIQS: One-Shot Mixed-Precision Floating-Point and Integer Quantization Search [50.07268323597872]
本稿では,整数浮動小数点モデルと低精度浮動小数点モデルの両方において再学習を不要とする,最初のワンショット混合量子化探索を提案する。
整数モデルでは、ImageNet上のResNet-18の精度を1.31%、ResNet-50の精度を0.90%向上させる。
従来のFP8モデルと比較して,新しい混合精度浮動小数点探索を探索し,最大0.98%改善した。
論文 参考訳(メタデータ) (2023-08-07T04:17:19Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Deep learning-based Edge-aware pre and post-processing methods for JPEG
compressed images [7.803786205476811]
本稿では,前処理と後処理の深いCNN間の標準を包含する学習ベース圧縮方式を提案する。
本稿では, 圧縮圧縮ネットワークを利用した先行手法の改良を, (a) 従来の作業でよく発生するぼやけを防止するエッジ認識損失関数, (b) 処理後処理のための超解像畳み込みニューラルネットワーク, および, 対応する前処理ネットワークを導入し, レート歪み性能の向上を図る。
論文 参考訳(メタデータ) (2021-04-11T05:50:31Z) - Revisiting Batch Normalization for Improving Corruption Robustness [85.20742045853738]
モデルロバスト性を改善するために, モデルロバスト性を改善するために, バッチ正規化統計の修正を提案する。
モデルを再トレーニングすることなく、BN統計をいくつかの表現サンプル上で単純に推定し、適応させることで、大きなマージンによる腐敗の堅牢性を向上させることが判明した。
論文 参考訳(メタデータ) (2020-10-07T19:56:47Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。