論文の概要: Less is More: Accelerating Faster Neural Networks Straight from JPEG
- arxiv url: http://arxiv.org/abs/2104.00185v1
- Date: Thu, 1 Apr 2021 01:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:43:01.096329
- Title: Less is More: Accelerating Faster Neural Networks Straight from JPEG
- Title(参考訳): less is more: jpegから直接ニューラルネットワークを高速化する
- Authors: Samuel Felipe dos Santos and Jurandy Almeida
- Abstract要約: JPEG圧縮データ処理のための畳み込みニューラルネットワークの高速化方法を示す。
学習戦略を活用し、DCT入力をフル活用し、計算の複雑さを低減します。
その結果、データ駆動方式で全てのdct入力を組み合わせる方法を学ぶことは、手で捨てるよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 1.9214041945441434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most image data available are often stored in a compressed format, from which
JPEG is the most widespread. To feed this data on a convolutional neural
network (CNN), a preliminary decoding process is required to obtain RGB pixels,
demanding a high computational load and memory usage. For this reason, the
design of CNNs for processing JPEG compressed data has gained attention in
recent years. In most existing works, typical CNN architectures are adapted to
facilitate the learning with the DCT coefficients rather than RGB pixels.
Although they are effective, their architectural changes either raise the
computational costs or neglect relevant information from DCT inputs. In this
paper, we examine different ways of speeding up CNNs designed for DCT inputs,
exploiting learning strategies to reduce the computational complexity by taking
full advantage of DCT inputs. Our experiments were conducted on the ImageNet
dataset. Results show that learning how to combine all DCT inputs in a
data-driven fashion is better than discarding them by hand, and its combination
with a reduction of layers has proven to be effective for reducing the
computational costs while retaining accuracy.
- Abstract(参考訳): ほとんどの画像データは圧縮形式で保存されることが多く、JPEGが最も広く使われている。
このデータを畳み込みニューラルネットワーク(cnn)に供給するには、高い計算負荷とメモリ使用を要求するrgbピクセルを得るために、予備復号処理が必要である。
このため,JPEG圧縮データを処理するためのCNNの設計が近年注目されている。
多くの既存の作品において、典型的なCNNアーキテクチャはRGBピクセルではなくDCT係数で学習しやすいように適応されている。
効果はあるが、アーキテクチャの変更は計算コストを上げるか、DCT入力から関連する情報を無視する。
本稿では,DCT入力に対して設計されたCNNの高速化方法について検討し,DCT入力を最大限に活用することにより,計算複雑性を低減するための学習戦略を活用する。
実験はImageNetデータセットを用いて行った。
その結果、データ駆動方式で全てのdct入力を組み合わせる方法を学ぶことは、手で捨てるよりも良いことを示し、その層の減少と組み合わせることで、精度を維持しながら計算コストを削減できることが証明された。
関連論文リスト
- CNNs for JPEGs: A Study in Computational Cost [45.74830585715129]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2023-09-20T15:49:38Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Learning JPEG Compression Artifacts for Image Manipulation Detection and
Localization [26.36646590957593]
画像中の内在統計を解析することにより、真正領域と改ざん領域を区別することが不可欠である。
本稿では、圧縮アーティファクトが残る離散コサイン変換(DCT)係数を用いた畳み込みニューラルネットワーク(CNN)による画像操作のローカライズを提案する。
DCT係数の分布を学習するニューラルネットワークの設計と訓練方法を示す。
これは、改ざんされた領域を検出してローカライズする、従来のニューラルネットワークとディープニューラルネットワークベースの手法を著しく上回っている。
論文 参考訳(メタデータ) (2021-08-30T01:21:07Z) - CNNs for JPEGs: A Study in Computational Cost [49.97673761305336]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2020-12-26T15:00:10Z) - DCT-SNN: Using DCT to Distribute Spatial Information over Time for
Learning Low-Latency Spiking Neural Networks [7.876001630578417]
Spiking Neural Networks(SNN)は、従来のディープラーニングフレームワークに代わる有望な選択肢を提供する。
SNNは高い推論遅延に悩まされており、デプロイメントの大きなボトルネックとなっている。
本稿では、離散コサイン変換(DCT)を用いて、推論に必要な時間ステップ数を削減できるスケーラブルな時間ベースの符号化方式を提案する。
論文 参考訳(メタデータ) (2020-10-05T05:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。