論文の概要: Optimized Learned Image Compression for Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2509.17262v1
- Date: Sun, 21 Sep 2025 22:35:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.189884
- Title: Optimized Learned Image Compression for Facial Expression Recognition
- Title(参考訳): 表情認識のための最適学習画像圧縮
- Authors: Xiumei Li, Marc Windsheimer, Misha Sadeghi, Björn Eskofier, André Kaup,
- Abstract要約: 本研究では,重要な特徴を保存し,圧縮性能と認識性能を両立させるエンド・ツー・エンドモデルを提案する。
モデル最適化のためにカスタムロス関数を導入し、圧縮と認識性能のバランスを効果的に調整する。
- 参考スコア(独自算出の注目度): 19.83373779671629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient data compression is crucial for the storage and transmission of visual data. However, in facial expression recognition (FER) tasks, lossy compression often leads to feature degradation and reduced accuracy. To address these challenges, this study proposes an end-to-end model designed to preserve critical features and enhance both compression and recognition performance. A custom loss function is introduced to optimize the model, tailored to balance compression and recognition performance effectively. This study also examines the influence of varying loss term weights on this balance. Experimental results indicate that fine-tuning the compression model alone improves classification accuracy by 0.71% and compression efficiency by 49.32%, while joint optimization achieves significant gains of 4.04% in accuracy and 89.12% in efficiency. Moreover, the findings demonstrate that the jointly optimized classification model maintains high accuracy on both compressed and uncompressed data, while the compression model reliably preserves image details, even at high compression rates.
- Abstract(参考訳): 効率的なデータ圧縮は、視覚データの保存と送信に不可欠である。
しかし、顔表情認識(FER)タスクでは、圧縮が失われると特徴が低下し、精度が低下する。
これらの課題に対処するために,重要な特徴を保存し,圧縮性能と認識性能を両立させるエンド・ツー・エンド・モデルを提案する。
モデル最適化のためにカスタムロス関数を導入し、圧縮と認識性能のバランスを効果的に調整する。
また, このバランスに及ぼす損失項量の影響についても検討した。
実験結果から, 圧縮モデルの微調整だけで分類精度が0.71%向上し, 圧縮効率が49.32%向上し, 共同最適化による精度は4.04%, 効率89.12%向上した。
さらに,共同最適化された分類モデルでは圧縮データと非圧縮データの両方に対して高い精度を維持し,圧縮モデルは高い圧縮速度でも画像の詳細を確実に保存することを示した。
関連論文リスト
- Evaluating the Impact of Compression Techniques on Task-Specific Performance of Large Language Models [0.0]
大規模言語モデル(LLM)は強力な能力を提供するが、かなりの計算コストがかかる。
本研究では,LLaMA-2-7Bモデルに対する圧縮法の影響について検討した。
SparseGPTとWandaは50%の間隔でも難易度を保っているが,下流タスクでは著しく低下している。
論文 参考訳(メタデータ) (2024-09-17T14:34:11Z) - Sensitivity Decouple Learning for Image Compression Artifacts Reduction [39.67836965306397]
本稿では, 固有属性を2つの相補的特徴に分解して, アーティファクトの低減を図ることを提案する。
提案するDAGNでは,圧縮不感な特徴の整合性を維持するために,多機能融合モジュールを開発した。
提案手法はBSD500上で平均2.06dBのPSNRゲインを達成し,最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-05-15T12:29:35Z) - LayerCollapse: Adaptive compression of neural networks [13.567747247563108]
トランスフォーマーネットワークは、自然言語処理やコンピュータビジョンにおいて、先行技術より優れている。
モデルは数億のパラメータを含み、重要な計算資源を必要とする。
完全に連結された層の深さを減少させる新しい構造化プルーニング法であるLayerCollapseを提案する。
論文 参考訳(メタデータ) (2023-11-29T01:23:41Z) - Machine Perception-Driven Image Compression: A Layered Generative
Approach [32.23554195427311]
階層型生成画像圧縮モデルを提案する。
タスクに依存しない学習に基づく圧縮モデルを提案し、様々な圧縮されたドメインベースの分析タスクを効果的にサポートする。
圧縮比、再構成画像品質、下流知覚性能の最良のバランス点を得るために、共同最適化スケジュールを採用する。
論文 参考訳(メタデータ) (2023-04-14T02:12:38Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Are Visual Recognition Models Robust to Image Compression? [23.280147529096908]
画像圧縮が視覚認知タスクに与える影響を解析する。
我々は、0.1ビットから2ビット/ピクセル(bpp)までの幅広い圧縮レベルについて検討する。
これら3つのタスクすべてにおいて,強い圧縮を使用する場合,認識能力に大きな影響があることが判明した。
論文 参考訳(メタデータ) (2023-04-10T11:30:11Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Substitutional Neural Image Compression [48.20906717052056]
置換型ニューラルイメージ圧縮(snic)は、あらゆるニューラルイメージ圧縮モデルを強化する一般的なアプローチである。
フレキシブルな歪みメトリックに向けて圧縮性能を高め、単一のモデルインスタンスを使用したビットレート制御を可能にする。
論文 参考訳(メタデータ) (2021-05-16T20:53:31Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - End-to-End Facial Deep Learning Feature Compression with Teacher-Student
Enhancement [57.18801093608717]
本稿では,ディープニューラルネットワークの表現と学習能力を活用することで,エンドツーエンドの特徴圧縮手法を提案する。
特に、抽出した特徴量を、レート歪みコストを最適化することにより、エンドツーエンドでコンパクトに符号化する。
提案モデルの有効性を顔の特徴で検証し, 圧縮性能を高いレート精度で評価した。
論文 参考訳(メタデータ) (2020-02-10T10:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。