論文の概要: An Implementation of Vector Quantization using the Genetic Algorithm
Approach
- arxiv url: http://arxiv.org/abs/2102.08893v1
- Date: Tue, 16 Feb 2021 03:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 23:56:32.610535
- Title: An Implementation of Vector Quantization using the Genetic Algorithm
Approach
- Title(参考訳): 遺伝的アルゴリズムを用いたベクトル量子化の一手法
- Authors: Maha Mohammed Khan
- Abstract要約: 本稿では,ニューラルネットワーク,残留学習,ファジィニューラルネットワーク,畳み込みニューラルネットワーク,ディープラーニング,遺伝的アルゴリズムなどの手法を用いた画像圧縮アルゴリズムの実装について述べる。
また,Lossy画像圧縮に用いるコードブックを生成するために,GAを用いたベクトル量子化の実装についても述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of machine learning(ML) and genetic programming(GP) to the
image compression domain has produced promising results in many cases. The need
for compression arises due to the exorbitant size of data shared on the
internet. Compression is required for text, videos, or images, which are used
almost everywhere on web be it news articles, social media posts, blogs,
educational platforms, medical domain, government services, and many other
websites, need packets for transmission and hence compression is necessary to
avoid overwhelming the network. This paper discusses some of the
implementations of image compression algorithms that use techniques such as
Artificial Neural Networks, Residual Learning, Fuzzy Neural Networks,
Convolutional Neural Nets, Deep Learning, Genetic Algorithms. The paper also
describes an implementation of Vector Quantization using GA to generate
codebook which is used for Lossy image compression. All these approaches prove
to be very contrasting to the standard approaches to processing images due to
the highly parallel and computationally extensive nature of machine learning
algorithms. Such non-linear abilities of ML and GP make it widely popular for
use in multiple domains. Traditional approaches are also combined with
artificially intelligent systems, leading to hybrid systems, to achieve better
results.
- Abstract(参考訳): 画像圧縮領域への機械学習(ML)と遺伝的プログラミング(GP)の適用は多くのケースで有望な結果をもたらしている。
圧縮の必要性は、インターネット上で共有されるデータの異常なサイズによって生じる。
テキスト、ビデオ、画像には圧縮が必要であり、ニュース記事、ソーシャルメディア投稿、ブログ、教育プラットフォーム、医療ドメイン、政府サービス、その他多くのウェブサイトでは、ネットワークを圧倒するのを避けるために圧縮が必要である。
本稿では,ニューラルネットワーク,残留学習,ファジィニューラルネットワーク,畳み込みニューラルネットワーク,ディープラーニング,遺伝的アルゴリズムなどの手法を用いた画像圧縮アルゴリズムの実装について述べる。
また,gaを用いた画像圧縮のためのコードブック生成のためのベクトル量子化の実装について述べる。
これらのアプローチは、機械学習アルゴリズムの非常に並列で計算的に広い性質のため、画像処理の標準的なアプローチと非常に対照的である。
このようなMLとGPの非線形能力は、複数のドメインで広く使われている。
従来のアプローチは、より優れた結果を得るために、ハイブリッドシステムにつながる人工知能システムと組み合わせられる。
関連論文リスト
- Exploiting Inter-Image Similarity Prior for Low-Bitrate Remote Sensing Image Compression [10.427300958330816]
生成された離散コードブックを用いたコードブックベースのRS画像圧縮(Code-RSIC)手法を提案する。
このコードは、知覚品質の観点から、最先端の伝統と学習に基づく画像圧縮アルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-07-17T03:33:16Z) - UniCompress: Enhancing Multi-Data Medical Image Compression with Knowledge Distillation [59.3877309501938]
Inlicit Neural Representation (INR) ネットワークは、その柔軟な圧縮比のため、顕著な汎用性を示している。
周波数領域情報を含むコードブックをINRネットワークへの事前入力として導入する。
これにより、INRの表現力が向上し、異なる画像ブロックに対して特異な条件付けが提供される。
論文 参考訳(メタデータ) (2024-05-27T05:52:13Z) - Streaming Lossless Volumetric Compression of Medical Images Using Gated
Recurrent Convolutional Neural Network [0.0]
本稿では,ハードウェアフレンドリーなストリーミングロスレスボリューム圧縮フレームワークを提案する。
本稿では,多種多様な畳み込み構造と融合ゲート機構を組み合わせたゲートリカレント畳み込みニューラルネットワークを提案する。
提案手法は,堅牢な一般化能力と競争圧縮速度を示す。
論文 参考訳(メタデータ) (2023-11-27T07:19:09Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Learning-Driven Lossy Image Compression; A Comprehensive Survey [3.1761172592339375]
本稿では、機械学習(ML)アーキテクチャを用いて、画像圧縮の損失を主に生かした最近の技術について調査することを目的とする。
すべてのアルゴリズムをアーキテクチャに基づいて複数のグループに分けます。
研究者の様々な発見が強調され、研究者の今後の方向性が示唆されている。
論文 参考訳(メタデータ) (2022-01-23T12:11:31Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Image Compression with Recurrent Neural Network and Generalized Divisive
Normalization [3.0204520109309843]
深層学習は研究コミュニティから大きな注目を集め、将来有望な画像再構成結果を生み出している。
近年の手法は、ネットワークの複雑さを大幅に増大させる、より深い複雑なネットワークの開発に焦点を当てている。
本稿では、畳み込み層を用いた解析とブロック合成と、可変レートエンコーダとデコーダ側における一般化分割正規化(GDN)の2つの有効な新しいブロックを開発する。
論文 参考訳(メタデータ) (2021-09-05T05:31:55Z) - An Information Theory-inspired Strategy for Automatic Network Pruning [88.51235160841377]
深層畳み込みニューラルネットワークは、リソース制約のあるデバイスで圧縮されることがよく知られている。
既存のネットワークプルーニング手法の多くは、人的努力と禁忌な計算資源を必要とする。
本稿では,自動モデル圧縮のための情報理論に基づく戦略を提案する。
論文 参考訳(メタデータ) (2021-08-19T07:03:22Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。