論文の概要: Low-complexity Image and Video Coding Based on an Approximate Discrete Tchebichef Transform
- arxiv url: http://arxiv.org/abs/1609.07630v4
- Date: Fri, 11 Oct 2024 00:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 17:54:08.879091
- Title: Low-complexity Image and Video Coding Based on an Approximate Discrete Tchebichef Transform
- Title(参考訳): 近似離散型チェビシェフ変換に基づく低複雑さ画像とビデオ符号化
- Authors: P. A. M. Oliveira, R. J. Cintra, F. M. Bayer, S. Kulasekera, A. Madanayake, V. A. Coutinho,
- Abstract要約: 我々は離散的チェビシェフ変換(DTT)のための新しい低複雑さ近似を導入する。
提案した変換の高速アルゴリズムは乗算自由であり、加算数やビットシフト操作の削減を必要とする。
画像および映像の圧縮シミュレーションは,提案した変換の優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The usage of linear transformations has great relevance for data decorrelation applications, like image and video compression. In that sense, the discrete Tchebichef transform (DTT) possesses useful coding and decorrelation properties. The DTT transform kernel does not depend on the input data and fast algorithms can be developed to real time applications. However, the DTT fast algorithm presented in literature possess high computational complexity. In this work, we introduce a new low-complexity approximation for the DTT. The fast algorithm of the proposed transform is multiplication-free and requires a reduced number of additions and bit-shifting operations. Image and video compression simulations in popular standards shows good performance of the proposed transform. Regarding hardware resource consumption for FPGA shows 43.1% reduction of configurable logic blocks and ASIC place and route realization shows 57.7% reduction in the area-time figure when compared with the 2-D version of the exact DTT.
- Abstract(参考訳): 線形変換の使用は、画像やビデオ圧縮などのデータデコレーションアプリケーションに非常に関連性がある。
その意味では、離散チェビシェフ変換(DTT)は有用な符号化とデコリレーション特性を持つ。
DTT変換カーネルは入力データに依存しず、高速アルゴリズムをリアルタイムアプリケーションに開発することができる。
しかし、文献で示されるDTT高速アルゴリズムは計算量が多い。
そこで本研究では,DTTのための新しい低複雑さ近似法を提案する。
提案した変換の高速アルゴリズムは乗算自由であり、加算数やビットシフト操作の削減を必要とする。
画像および映像の圧縮シミュレーションは,提案した変換の優れた性能を示す。
FPGAのハードウェアリソース消費については、構成可能な論理ブロックとASICの場所とルートの実現が43.1%減少し、正確なDTTの2-Dバージョンと比較して57.7%減少している。
関連論文リスト
- Fast Data-independent KLT Approximations Based on Integer Functions [0.0]
Karhunen-Loeve変換(KLT)は確立された離散変換であり、データのデコリレーションと次元減少の最適特性を示す。
本稿では、様々なラウンドオフ関数を用いて、低複雑さでデータに依存しないKLT近似のカテゴリを紹介する。
提案した変換は,古典的性能尺度を考慮した正確なKLTおよび近似と比較すると良好に動作する。
論文 参考訳(メタデータ) (2024-10-11T20:05:05Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Dynamic Diffusion Transformer [67.13876021157887]
Diffusion Transformer (DiT) は優れた性能を示したが、かなりの計算コストに悩まされている。
本研究では,動的拡散変換器 (DyDiT) を提案する。
3%の微調整により,DiT-XLのFLOPを51%削減し,生成を1.73高速化し,ImageNet上でのFIDスコア2.07を達成する。
論文 参考訳(メタデータ) (2024-10-04T14:14:28Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Efficient Encoder-Decoder Transformer Decoding for Decomposable Tasks [53.550782959908524]
エンコーダ・デコーダモデルのための新しい構成を導入し、構造化された出力と分解可能なタスクの効率を改善する。
提案手法は,インプットを一度エンコードして並列にデコードすることで,トレーニングと推論の効率を向上する。
論文 参考訳(メタデータ) (2024-03-19T19:27:23Z) - AICT: An Adaptive Image Compression Transformer [18.05997169440533]
我々は、より単純で効果的なTranformerベースのチャネルワイド自動回帰事前モデルを提案し、絶対画像圧縮変換器(ICT)を実現する。
提案したICTは、潜在表現からグローバルとローカルの両方のコンテキストをキャプチャできる。
我々は、サンドイッチのConvNeXtベースのプリ/ポストプロセッサで学習可能なスケーリングモジュールを活用し、よりコンパクトな潜在表現を正確に抽出する。
論文 参考訳(メタデータ) (2023-07-12T11:32:02Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Low-complexity Rounded KLT Approximation for Image Compression [0.0]
Karhunen-Loeve変換(KLT)はデータデコリレーションや次元減少によく用いられる。
リアルタイムアプリケーションにおけるKLTの使用は、それを実装するための高速アルゴリズムを開発することの難しさによって厳しく制限されている。
本稿では,KLT行列の要素に対する円関数の適用により得られる,新しい低複雑性変換のクラスを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:25:35Z) - A Multiparametric Class of Low-complexity Transforms for Image and Video
Coding [0.0]
本稿では,Bouguezel,Ahmed,Swamyの一連の論文に基づいて,低複素度8点DCT近似の新たなクラスを導入する。
最適DCT近似は、符号化効率と画像品質の指標の点で魅力的な結果を示すことを示す。
論文 参考訳(メタデータ) (2020-06-19T21:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。