論文の概要: An Evolution of CNN Object Classifiers on Low-Resolution Images
- arxiv url: http://arxiv.org/abs/2101.00686v1
- Date: Sun, 3 Jan 2021 18:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 11:39:11.658150
- Title: An Evolution of CNN Object Classifiers on Low-Resolution Images
- Title(参考訳): 低解像度画像におけるCNNオブジェクト分類器の進化
- Authors: Md. Mohsin Kabir, Abu Quwsar Ohi, Md. Saifur Rahman, M. F. Mridha
- Abstract要約: 低画質画像からのオブジェクト分類は、対象色、アスペクト比、乱れ背景のばらつきに対して困難である。
深層畳み込みニューラルネットワーク(DCNN)は、高解像度画像からオブジェクト分類の課題に直面する非常に強力なシステムとして実証されています。
本稿では,DCNNアーキテクチャを用いて低品質画像を正確に分類する最適アーキテクチャについて検討する。
- 参考スコア(独自算出の注目度): 0.4129225533930965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object classification is a significant task in computer vision. It has become
an effective research area as an important aspect of image processing and the
building block of image localization, detection, and scene parsing. Object
classification from low-quality images is difficult for the variance of object
colors, aspect ratios, and cluttered backgrounds. The field of object
classification has seen remarkable advancements, with the development of deep
convolutional neural networks (DCNNs). Deep neural networks have been
demonstrated as very powerful systems for facing the challenge of object
classification from high-resolution images, but deploying such object
classification networks on the embedded device remains challenging due to the
high computational and memory requirements. Using high-quality images often
causes high computational and memory complexity, whereas low-quality images can
solve this issue. Hence, in this paper, we investigate an optimal architecture
that accurately classifies low-quality images using DCNNs architectures. To
validate different baselines on lowquality images, we perform experiments using
webcam captured image datasets of 10 different objects. In this research work,
we evaluate the proposed architecture by implementing popular CNN
architectures. The experimental results validate that the MobileNet
architecture delivers better than most of the available CNN architectures for
low-resolution webcam image datasets.
- Abstract(参考訳): オブジェクト分類はコンピュータビジョンにおいて重要なタスクである。
画像処理の重要な側面として有効な研究領域となり、画像のローカライゼーション、検出、シーン解析のビルディングブロックとなっている。
低画質画像からのオブジェクト分類は、対象色、アスペクト比、乱れ背景のばらつきに対して困難である。
オブジェクト分類の分野は、深層畳み込みニューラルネットワーク(dcnn)の開発によって、著しく進歩している。
ディープニューラルネットワークは、高解像度画像からのオブジェクト分類の課題に直面するための非常に強力なシステムとして実証されてきたが、そのようなオブジェクト分類ネットワークを組み込みデバイスにデプロイすることは、高い計算能力とメモリ要件のために依然として困難である。
高品質な画像を使用することで計算やメモリの複雑さが高まることが少なくないが、低品質の画像はこの問題を解決できる。
そこで本稿では,DCNNアーキテクチャを用いて低品質画像を正確に分類する最適アーキテクチャについて検討する。
低品質の画像上で異なるベースラインを検証するために、10種類の異なるオブジェクトのwebcamキャプチャ画像データセットを用いて実験を行う。
本研究では,CNNアーキテクチャの実装により提案したアーキテクチャを評価する。
実験の結果、MobileNetアーキテクチャは、低解像度のWebカメラ画像データセットで利用可能なCNNアーキテクチャのほとんどより優れていることが確認された。
関連論文リスト
- Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - T-former: An Efficient Transformer for Image Inpainting [50.43302925662507]
トランスフォーマーと呼ばれる注目に基づくネットワークアーキテクチャのクラスは、自然言語処理の分野で大きなパフォーマンスを示している。
本稿では,Taylorの展開に応じて,解像度に線形に関連付けられた新たな注意を設計し,この注意に基づいて,画像インペイントのためのネットワークである$T$-formerを設計する。
いくつかのベンチマークデータセットの実験により,提案手法は比較的少ないパラメータ数と計算複雑性を維持しつつ,最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-12T04:10:42Z) - No More Strided Convolutions or Pooling: A New CNN Building Block for
Low-Resolution Images and Small Objects [3.096615629099617]
畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンタスクで大きな成功を収めた。
しかし、画像が解像度の低いタスクやオブジェクトが小さいタスクでは、パフォーマンスが急速に低下する。
そこで我々は,SPD-Convと呼ばれる新しいCNNビルディングブロックを提案し,各ストリップ畳み込み層と各プール層に代えて提案する。
論文 参考訳(メタデータ) (2022-08-07T05:09:18Z) - LR-Net: A Block-based Convolutional Neural Network for Low-Resolution
Image Classification [0.0]
ノイズや低解像度の画像から低レベル特徴と大域特徴の両方を学習するためのブロックで構成された,新しい画像分類アーキテクチャを開発した。
ブロックの設計は,性能向上とパラメータサイズ削減のために,Residual ConnectionとInceptionモジュールの影響を強く受けていた。
我々は、提示されたアーキテクチャが既存の最先端畳み込みニューラルネットワークよりも高速で正確であることを示す詳細なテストを実施した。
論文 参考訳(メタデータ) (2022-07-19T20:01:11Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - Efficient Classification of Very Large Images with Tiny Objects [15.822654320750054]
Zoom-Inネットワークと呼ばれるエンドツーエンドCNNモデルを用いて,大容量画像を小さなオブジェクトで分類する。
本研究では,2つの大画像データセットと1ギガピクセルデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-06-04T20:13:04Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Lightweight Modules for Efficient Deep Learning based Image Restoration [20.701733377216932]
そこで我々は,与えられたベースラインモデルの計算的低コストな変種を生成するために,いくつかの軽量な低レベルモジュールを提案する。
その結果,提案するネットワークは,全容量ベースラインと比較して,視覚的に類似した再構成を一貫して出力することがわかった。
論文 参考訳(メタデータ) (2020-07-11T19:35:00Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。