論文の概要: DCT Approximations Based on Chen's Factorization
- arxiv url: http://arxiv.org/abs/2207.11638v1
- Date: Sun, 24 Jul 2022 02:31:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:59:21.426871
- Title: DCT Approximations Based on Chen's Factorization
- Title(参考訳): チェン因子分解に基づくdct近似
- Authors: C. J. Tablada, T. L. T. da Silveira, R. J. Cintra, F. M. Bayer
- Abstract要約: 2つの8点乗算自由DCT近似を提案し、その高速アルゴリズムも導出する。
JPEGライクな画像圧縮方式による実験を行い、競合する手法と比較した。
新しい変換セットをHEVCリファレンスソフトウェアに組み込み、HEVC準拠のビデオ符号化スキームを提供する。
- 参考スコア(独自算出の注目度): 0.17205106391379021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, two 8-point multiplication-free DCT approximations based on
the Chen's factorization are proposed and their fast algorithms are also
derived. Both transformations are assessed in terms of computational cost,
error energy, and coding gain. Experiments with a JPEG-like image compression
scheme are performed and results are compared with competing methods. The
proposed low-complexity transforms are scaled according to Jridi-Alfalou-Meher
algorithm to effect 16- and 32-point approximations. The new sets of
transformations are embedded into an HEVC reference software to provide a fully
HEVC-compliant video coding scheme. We show that approximate transforms can
outperform traditional transforms and state-of-the-art methods at a very low
complexity cost.
- Abstract(参考訳): 本稿では、chenの因子分解に基づく2つの8点乗算自由dct近似を提案し、その高速アルゴリズムも導出する。
どちらの変換も計算コスト、誤差エネルギー、符号化ゲインの観点から評価される。
JPEGライクな画像圧縮方式による実験を行い、競合する手法と比較した。
提案する低複素変換は、jridi-alfalou-meherアルゴリズムにより16点および32点近似に影響を及ぼす。
新しい変換セットは、HEVC準拠のビデオ符号化スキームを提供するため、HEVCリファレンスソフトウェアに組み込まれる。
近似変換が従来の変換や最先端の手法を非常に低い複雑性コストで上回ることができることを示す。
関連論文リスト
- JPEG Quantized Coefficient Recovery via DCT Domain Spatial-Frequential
Transformer [53.32016332306767]
本稿では,DCTransformer という名前の DCT 領域空間周波数変換器を提案する。
提案するDCTransformerは,現在最先端のJPEGアーティファクト除去技術より優れている。
論文 参考訳(メタデータ) (2023-08-17T17:32:56Z) - AICT: An Adaptive Image Compression Transformer [18.05997169440533]
我々は、より単純で効果的なTranformerベースのチャネルワイド自動回帰事前モデルを提案し、絶対画像圧縮変換器(ICT)を実現する。
提案したICTは、潜在表現からグローバルとローカルの両方のコンテキストをキャプチャできる。
我々は、サンドイッチのConvNeXtベースのプリ/ポストプロセッサで学習可能なスケーリングモジュールを活用し、よりコンパクトな潜在表現を正確に抽出する。
論文 参考訳(メタデータ) (2023-07-12T11:32:02Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Low-Complexity Loeffler DCT Approximations for Image and Video Coding [0.0]
本稿では,ローフラー離散コサイン変換(DCT)アルゴリズムに基づく行列パラメトリゼーション手法を提案する。
数個の8点DCT近似の数学的形式を統一する8点DCT近似の新しいクラスが提案された。
論文 参考訳(メタデータ) (2022-07-29T03:56:18Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Low-complexity Rounded KLT Approximation for Image Compression [0.0]
Karhunen-Loeve変換(KLT)はデータデコリレーションや次元減少によく用いられる。
リアルタイムアプリケーションにおけるKLTの使用は、それを実装するための高速アルゴリズムを開発することの難しさによって厳しく制限されている。
本稿では,KLT行列の要素に対する円関数の適用により得られる,新しい低複雑性変換のクラスを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:25:35Z) - Generating Images with Sparse Representations [21.27273495926409]
画像の高次元化は、確率に基づく生成モデルのアーキテクチャとサンプリング効率の課題を示す。
JPEGのような一般的な画像圧縮法に触発された代替手法を提示し、画像を量子化された離散コサイン変換(DCT)ブロックに変換する。
本稿では,次の要素の条件分布を逐次的に予測するトランスフォーマに基づく自己回帰型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-05T17:56:03Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - A Multiparametric Class of Low-complexity Transforms for Image and Video
Coding [0.0]
本稿では,Bouguezel,Ahmed,Swamyの一連の論文に基づいて,低複素度8点DCT近似の新たなクラスを導入する。
最適DCT近似は、符号化効率と画像品質の指標の点で魅力的な結果を示すことを示す。
論文 参考訳(メタデータ) (2020-06-19T21:56:58Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。