論文の概要: Dynamic-Deep: ECG Task-Aware Compression
- arxiv url: http://arxiv.org/abs/2106.00606v1
- Date: Sun, 30 May 2021 15:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 08:55:30.215044
- Title: Dynamic-Deep: ECG Task-Aware Compression
- Title(参考訳): ダイナミックディープ:ECGタスク認識圧縮
- Authors: Eli Brosh, Elad Wasserstein, Anat Bremler-Barr
- Abstract要約: 畳み込みオートエンコーダを用いたタスク認識圧縮であるDynamic-Deepを提案する。
動的ディープは, HR分類F1スコアを3。
圧縮ソリューションを使わずに,クラウドコストの97%削減を観測した。
- 参考スコア(独自算出の注目度): 5.702993286466733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monitoring medical data, e.g., Electrocardiogram (ECG) signals, is a common
application of Internet of Things (IoT) devices. Compression methods are often
applied on the massive amounts of sensor data generated before sending it to
the Cloud to reduce storage and delivery costs. A lossy compression provides
high compression gain (CG) but may reduce the performance of an ECG application
(downstream task) due to information loss. Previous works on ECG monitoring
focus either on optimizing the signal reconstruction or the task's performance.
Instead, we advocate a lossy compression solution that allows configuring a
desired performance level on the downstream tasks while maintaining an
optimized CG.
We propose Dynamic-Deep, a task-aware compression that uses convolutional
autoencoders. The compression level is dynamically selected to yield an
optimized compression without violating tasks' performance requirements. We
conduct an extensive evaluation of our approach on common ECG datasets using
two popular ECG applications, which includes heart rate (HR) arrhythmia
classification. We demonstrate that Dynamic-Deep improves HR classification
F1-score by a factor of 3 and increases CG by up to 83% compared to the
previous state-of-the-art (autoencoder-based) compressor. Additionally,
Dynamic-Deep has a 67% lower memory footprint. Analyzing Dynamic-Deep on the
Google Cloud Platform, we observe a 97% reduction in cloud costs compared to a
no compression solution.
To the best of our knowledge, Dynamic-Deep is the first proposal to focus on
balancing the need for high performance of cloud-based downstream tasks and the
desire to achieve optimized compression in IoT ECG monitoring settings.
- Abstract(参考訳): 心電図(ECG)信号などの医療データを監視することは、IoT(Internet of Things)デバイスの一般的な用途である。
圧縮方法は、クラウドに送信する前に生成された大量のセンサーデータに適用され、ストレージとデリバリコストを削減します。
損失圧縮は高い圧縮ゲイン(CG)を提供するが、情報損失によりECGアプリケーション(ダウンストリームタスク)の性能が低下する可能性がある。
以前のECG監視では、信号再構成の最適化やタスクのパフォーマンスの最適化に重点が置かれていた。
代わりに、最適化されたCGを維持しながら、下流タスクで所望のパフォーマンスレベルを設定することのできる、損失の多い圧縮ソリューションを提案します。
畳み込みオートエンコーダを用いたタスク認識圧縮であるDynamic-Deepを提案する。
圧縮レベルは動的に選択され、タスクのパフォーマンス要求に違反することなく最適化された圧縮が得られる。
我々は、心拍不整脈分類を含む2つの一般的なECGアプリケーションを用いて、一般的なECGデータセットに対するアプローチを広範囲に評価する。
動的ディープは、従来の最先端(オートエンコーダベース)圧縮機と比較して、HR分類F1スコアを3倍改善し、CGを83%向上させることを示した。
さらに、Dynamic-Deepはメモリフットプリントが67%低い。
Google Cloud PlatformのDynamic-Deepを分析して、圧縮しないソリューションと比較して、クラウドコストの97%削減を観察します。
私たちの知る限りでは、dynamic-deepはクラウドベースのダウンストリームタスクのハイパフォーマンスの必要性と、iot ecg監視設定で最適化された圧縮を実現する意向のバランスをとる最初の提案です。
関連論文リスト
- Fast Feedforward 3D Gaussian Splatting Compression [55.149325473447384]
3D Gaussian Splatting (FCGS) は、1つのフィードフォワードパスで3DGS表現を高速に圧縮できる最適化フリーモデルである。
FCGSは圧縮比を20倍以上に向上し、高精細度を維持しながら、ほとんどのシーン毎のSOTA最適化手法を上回ります。
論文 参考訳(メタデータ) (2024-10-10T15:13:08Z) - Accelerating Communication in Deep Learning Recommendation Model Training with Dual-Level Adaptive Lossy Compression [10.233937665979694]
DLRMは最先端のレコメンデーションシステムモデルであり、様々な業界アプリケーションで広く採用されている。
このプロセスの重大なボトルネックは、すべてのデバイスから埋め込みデータを集めるのに必要な全通信に時間を要することだ。
本稿では,通信データサイズを削減し,DLRMトレーニングを高速化するために,エラーバウンドの損失圧縮を利用する手法を提案する。
論文 参考訳(メタデータ) (2024-07-05T05:55:18Z) - 3D Point Cloud Compression with Recurrent Neural Network and Image
Compression Methods [0.0]
多くのAVアプリケーションでは、LiDARポイントクラウドデータの保存と送信が不可欠である。
データの幅と秩序のない構造のため、ポイントクラウドデータを低ボリュームに圧縮することは困難である。
圧縮アルゴリズムが空間相関を効率的に活用できる新しい3D-to-2D変換を提案する。
論文 参考訳(メタデータ) (2024-02-18T19:08:19Z) - Attention-Based Generative Neural Image Compression on Solar Dynamics
Observatory [12.283978726972752]
NASAのSolar Dynamics Observatory(SDO)ミッションは、地球同期軌道から毎日1.4テラバイトのデータを収集する。
近年、画像圧縮を行う上で、エンドツーエンド最適化された人工知能(ANN)が大きな可能性を示している。
我々は、宇宙ミッションで格納・回収されるデータ量を削減するために、アドホックなANNベースの画像圧縮スキームを設計した。
論文 参考訳(メタデータ) (2022-10-12T17:39:08Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - Cross Modal Compression: Towards Human-comprehensible Semantic
Compression [73.89616626853913]
クロスモーダル圧縮は、視覚データのためのセマンティック圧縮フレームワークである。
提案したCMCは,超高圧縮比で再現性の向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-09-06T15:31:11Z) - DNN-Driven Compressive Offloading for Edge-Assisted Semantic Video
Segmentation [7.9955920576321615]
本稿では,エッジ支援セマンティックセグメンテーションに適した一様圧縮方式STACを提案する。
現状のアルゴリズムと比較して,STACは精度を損なうことなく最大20.95%の帯域幅を節約できることを示す。
論文 参考訳(メタデータ) (2022-03-28T03:49:57Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Supervised Compression for Resource-constrained Edge Computing Systems [26.676557573171618]
フルスケールのディープニューラルネットワークは、エネルギーとストレージの面でリソース集約的すぎることが多い。
本稿では、知識蒸留とニューラルイメージ圧縮のアイデアを採用し、中間特徴表現をより効率的に圧縮する。
教師付きレート歪み性能を向上するとともに、エンドツーエンドのレイテンシも小さくする。
論文 参考訳(メタデータ) (2021-08-21T11:10:29Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。