論文の概要: CompressAI: a PyTorch library and evaluation platform for end-to-end
compression research
- arxiv url: http://arxiv.org/abs/2011.03029v1
- Date: Thu, 5 Nov 2020 18:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:41:21.636909
- Title: CompressAI: a PyTorch library and evaluation platform for end-to-end
compression research
- Title(参考訳): CompressAI: エンドツーエンド圧縮研究のためのPyTorchライブラリと評価プラットフォーム
- Authors: Jean B\'egaint, Fabien Racap\'e, Simon Feltman, Akshay Pushparaja
- Abstract要約: CompressAIは、画像およびビデオ圧縮コーデックの研究、開発、評価を行うカスタム操作、レイヤ、モデル、ツールを提供するプラットフォームである。
したがって、学習したエンドツーエンドの圧縮に関する最先端モデルからの複数のモデルは、PyTorchで再実装され、スクラッチからトレーニングされている。
このフレームワークは現在、静止画圧縮のためのモデルを実装しているが、すぐにビデオ圧縮領域に拡張される予定である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents CompressAI, a platform that provides custom operations,
layers, models and tools to research, develop and evaluate end-to-end image and
video compression codecs. In particular, CompressAI includes pre-trained models
and evaluation tools to compare learned methods with traditional codecs.
Multiple models from the state-of-the-art on learned end-to-end compression
have thus been reimplemented in PyTorch and trained from scratch. We also
report objective comparison results using PSNR and MS-SSIM metrics vs.
bit-rate, using the Kodak image dataset as test set. Although this framework
currently implements models for still-picture compression, it is intended to be
soon extended to the video compression domain.
- Abstract(参考訳): 本稿では,エンド・ツー・エンドの画像圧縮コーデックと映像圧縮コーデックを研究,開発,評価するためのカスタム操作,レイヤ,モデル,ツールを提供するプラットフォームであるcompressaiを提案する。
特にcompressaiには、学習された方法と従来のコーデックを比較するための事前学習されたモデルと評価ツールが含まれている。
学習されたエンドツーエンド圧縮に関する最先端の複数のモデルがpytorchで再実装され、スクラッチからトレーニングされている。
また,PSNRとMS-SSIMの計測値とビットレートとの客観的比較結果を,Kodak画像データセットをテストセットとして報告する。
このフレームワークは現在、静止画圧縮のためのモデルを実装しているが、すぐにビデオ圧縮領域に拡張される予定である。
関連論文リスト
- Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - The Devil Is in the Details: Window-based Attention for Image
Compression [58.1577742463617]
既存の学習画像圧縮モデルは畳み込みニューラルネットワーク(CNN)に基づいている。
本稿では,複数種類の注意機構が局所特徴学習に与える影響について検討し,より単純で効果的なウィンドウベースの局所的注意ブロックを提案する。
提案されたウィンドウベースのアテンションは非常に柔軟で、CNNとTransformerモデルを強化するためのプラグイン・アンド・プレイコンポーネントとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-03-16T07:55:49Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - Quality and Complexity Assessment of Learning-Based Image Compression
Solutions [4.6994519171880995]
Flow Compressionパッケージで利用可能な8つのモデルを比較して、視覚的品質のメトリクスと処理時間を比較します。
その結果,JPEG2000は最速の学習モデルに比べて実行時間が低いことがわかった。
論文 参考訳(メタデータ) (2021-07-19T20:20:38Z) - Lossless Compression with Latent Variable Models [4.289574109162585]
我々は「非対称数値系を持つビットバック」(bb-ans)と呼ぶ潜在変数モデルを用いる。
この方法は、エンコードおよびデコードステップをインターリーブし、データのバッチ圧縮時に最適なレートを達成する。
我々は,深層生成モデルを用いた圧縮の高速プロトタイピングのために開発したモジュール型ソフトウェアフレームワークである'craystack'について述べる。
論文 参考訳(メタデータ) (2021-04-21T14:03:05Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z) - Deep Learning-based Image Compression with Trellis Coded Quantization [13.728517700074423]
本稿では、深層学習に基づく画像圧縮フレームワークにトレリス符号化量子化器(TCQ)を組み込むことを提案する。
トレーニング中のバック伝搬を可能にするソフト・ツー・ハード戦略が適用される。
我々は,3つのワーク(エンコーダ,デコーダ,エントロピー推定)からなる単純な画像圧縮モデルを開発し,すべてのコンポーネントをエンドツーエンドに最適化する。
論文 参考訳(メタデータ) (2020-01-26T08:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。