論文の概要: TACTIC: Joint Rate-Distortion-Accuracy Optimisation for Low Bitrate
Compression
- arxiv url: http://arxiv.org/abs/2109.10658v1
- Date: Wed, 22 Sep 2021 11:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 18:06:44.146280
- Title: TACTIC: Joint Rate-Distortion-Accuracy Optimisation for Low Bitrate
Compression
- Title(参考訳): TACTIC:低ビットレート圧縮のための共同速度歪み精度最適化
- Authors: Nikolina Kubiak and Simon Hadfield
- Abstract要約: TACTIC: インテリジェントコーディングによるタスク認識圧縮。
我々の損失圧縮モデルは、特定のタスクに対するレート歪み精度トレードオフに基づいて学習する。
我々はImageNetサブセット分類の精度を4.5%向上させることができる。
- 参考スコア(独自算出の注目度): 28.88113725832339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TACTIC: Task-Aware Compression Through Intelligent Coding. Our
lossy compression model learns based on the rate-distortion-accuracy trade-off
for a specific task. By considering what information is important for the
follow-on problem, the system trades off visual fidelity for good task
performance at a low bitrate. When compared against JPEG at the same bitrate,
our approach is able to improve the accuracy of ImageNet subset classification
by 4.5%. We also demonstrate the applicability of our approach to other
problems, providing a 3.4% accuracy and 4.9% mean IoU improvements in
performance over task-agnostic compression for semantic segmentation.
- Abstract(参考訳): TACTIC: Intelligent Codingによるタスク認識圧縮について述べる。
我々の損失圧縮モデルは、特定のタスクに対する速度歪み精度トレードオフに基づいて学習する。
追従問題においてどの情報が重要であるかを考慮し、低ビットレートでのタスク性能向上のために視覚的忠実度をトレードオフする。
JPEGを同じビットレートで比較すると、ImageNetサブセット分類の精度が4.5%向上する。
また、他の問題へのアプローチの適用性を実証し、セマンティックセグメンテーションのためのタスク非依存圧縮よりも、IoUの精度が3.4%、平均4.9%向上したことを示す。
関連論文リスト
- TACO-RL: Task Aware Prompt Compression Optimization with Reinforcement Learning [11.167198972934736]
GPT-4のような大規模言語モデル(LLM)は、最適なパフォーマンスに必要なプロンプトのサイズが急増した。
本稿では,RLに基づくタスク認識プロンプト圧縮手法を提案する。
我々は,RL誘導圧縮法により,最先端圧縮技術よりもタスク性能が8%から260%向上することが実証された。
論文 参考訳(メタデータ) (2024-09-19T18:11:59Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Recognition-Aware Learned Image Compression [0.5801044612920815]
本稿では,タスク固有の損失と並行して,速度歪み損失を最適化する認識認識型学習圧縮手法を提案する。
提案手法は,BPGなどの従来の手法と比較して,同等値での認識精度が26%向上する。
論文 参考訳(メタデータ) (2022-02-01T03:33:51Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - The Rate-Distortion-Accuracy Tradeoff: JPEG Case Study [30.84385779593074]
JPEG圧縮標準における量子化テーブルの設計に焦点をあてる。
連続的な最適化を通じて、これらのテーブルの新たな最適チューニングを提供する。
本報告では,これらのテーブルの簡易かつ簡易な変更による性能向上について報告する。
論文 参考訳(メタデータ) (2020-08-03T01:39:01Z) - Optimizing JPEG Quantization for Classification Networks [32.20485214224392]
単純なソートされたランダムサンプリング手法は、標準JPEG Q-tableの性能を上回ることができることを示す。
新しいQテーブルは、精度が固定されたときに圧縮率を10%から200%向上させることができる。
論文 参考訳(メタデータ) (2020-03-05T19:13:06Z) - End-to-End Facial Deep Learning Feature Compression with Teacher-Student
Enhancement [57.18801093608717]
本稿では,ディープニューラルネットワークの表現と学習能力を活用することで,エンドツーエンドの特徴圧縮手法を提案する。
特に、抽出した特徴量を、レート歪みコストを最適化することにより、エンドツーエンドでコンパクトに符号化する。
提案モデルの有効性を顔の特徴で検証し, 圧縮性能を高いレート精度で評価した。
論文 参考訳(メタデータ) (2020-02-10T10:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。