論文の概要: Hierarchical Autoencoder-based Lossy Compression for Large-scale
High-resolution Scientific Data
- arxiv url: http://arxiv.org/abs/2307.04216v1
- Date: Sun, 9 Jul 2023 16:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 14:49:32.944743
- Title: Hierarchical Autoencoder-based Lossy Compression for Large-scale
High-resolution Scientific Data
- Title(参考訳): 階層型オートエンコーダを用いた大規模高解像度科学データに対するロシー圧縮
- Authors: Hieu Le, Hernan Santos, Jian Tao
- Abstract要約: この研究は、大規模な科学的データを著しく圧縮し、高い再構成品質を維持するニューラルネットワークを示す。
提案モデルは,大規模高分解能気候モデルデータセットに適用可能な科学ベンチマークデータを用いて検証した。
本モデルでは,再構成品質を損なうことなく,複数のベンチマークデータセットに対して140の圧縮比を達成している。
- 参考スコア(独自算出の注目度): 1.847740135967371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lossy compression has become an important technique to reduce data size in
many domains. This type of compression is especially valuable for large-scale
scientific data, whose size ranges up to several petabytes. Although
Autoencoder-based models have been successfully leveraged to compress images
and videos, such neural networks have not widely gained attention in the
scientific data domain. Our work presents a neural network that not only
significantly compresses large-scale scientific data but also maintains high
reconstruction quality. The proposed model is tested with scientific benchmark
data available publicly and applied to a large-scale high-resolution climate
modeling data set. Our model achieves a compression ratio of 140 on several
benchmark data sets without compromising the reconstruction quality. Simulation
data from the High-Resolution Community Earth System Model (CESM) Version 1.3
over 500 years are also being compressed with a compression ratio of 200 while
the reconstruction error is negligible for scientific analysis.
- Abstract(参考訳): ロスシー圧縮は多くの領域でデータサイズを減らす重要な技術となっている。
この種の圧縮は、サイズが数ペタバイトに及ぶ大規模な科学データに特に有用である。
オートエンコーダベースのモデルは画像やビデオの圧縮に成功しているが、そのようなニューラルネットワークは科学データ領域で広く注目を集めていない。
本研究は,大規模科学データを著しく圧縮するだけでなく,高い再構成品質を維持するニューラルネットワークを提案する。
提案モデルは,大規模高分解能気候モデルデータセットに適用可能な科学ベンチマークデータを用いて検証した。
本モデルは,複数のベンチマークデータセットにおいて,復元品質を損なうことなく圧縮率140を達成する。
高分解能コミュニティ・アース・システム・モデル(cesm)のバージョン1.3のシミュレーションデータは、500年以上にわたって圧縮率200で圧縮されているが、復元誤差は科学的解析には無視できない。
関連論文リスト
- Sparse $L^1$-Autoencoders for Scientific Data Compression [0.0]
L1$-regularizedの高次元ラテント空間を用いたオートエンコーダの開発により,効率的なデータ圧縮手法を提案する。
本稿では,これらの情報に富む潜伏空間を用いて,ぼやけなどのアーティファクトを緩和し,科学的データに対する高効率なデータ圧縮手法を実現する方法について述べる。
論文 参考訳(メタデータ) (2024-05-23T07:48:00Z) - GWLZ: A Group-wise Learning-based Lossy Compression Framework for Scientific Data [14.92764869276237]
本稿では,GWLZを提案する。GWLZは,複数の軽量学習可能エンハンサモデルを備えたグループ学習型損失圧縮フレームワークである。
本稿では,GWLZが圧縮効率に悪影響を及ぼすことなく,圧縮されたデータ再構成品質を著しく向上させることを示す。
論文 参考訳(メタデータ) (2024-04-20T21:12:53Z) - Convolutional variational autoencoders for secure lossy image compression in remote sensing [47.75904906342974]
本研究では,畳み込み変分オートエンコーダ(CVAE)に基づく画像圧縮について検討する。
CVAEは、JPEG2000のような従来の圧縮手法を圧縮ベンチマークデータセットのかなりのマージンで上回ることが示されている。
論文 参考訳(メタデータ) (2024-04-03T15:17:29Z) - SRN-SZ: Deep Leaning-Based Scientific Error-bounded Lossy Compression
with Super-resolution Neural Networks [13.706955134941385]
本研究では,SRN-SZを提案する。
SRN-SZはその圧縮に最も高度な超解像ネットワークHATを適用している。
実験では、SRN-SZは最大75%の圧縮比の改善を同じ誤差境界下で達成する。
論文 参考訳(メタデータ) (2023-09-07T22:15:32Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Scalable Hybrid Learning Techniques for Scientific Data Compression [6.803722400888276]
科学者は、抽出された興味の量(QoIs)を正確に保存する圧縮技術を必要とする
本稿では,データ圧縮のためのエンドツーエンドでスケーラブルなGPUベースのパイプラインとして実装された物理インフォームド圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-12-21T03:00:18Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Exploring Autoencoder-based Error-bounded Compression for Scientific
Data [14.724393511470225]
我々は,SZモデルの観点から,エラーバウンドオートエンコーダベースのフレームワークを開発する。
設計したAEベースエラーバウンド圧縮フレームワークの主段の圧縮品質を最適化する。
論文 参考訳(メタデータ) (2021-05-25T07:53:32Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - ScaleCom: Scalable Sparsified Gradient Compression for
Communication-Efficient Distributed Training [74.43625662170284]
最先端プラットフォーム上でのDeep Neural Networks(DNN)の大規模分散トレーニングは,通信の厳しい制約が期待できる。
本稿では,学習者間の勾配分布の類似性を活用した新しい圧縮手法を提案する。
実験により,scalecomのオーバーヘッドは小さく,勾配トラフィックを直接低減し,高い圧縮率(65~400倍)と優れたスケーラビリティ(64名までの学習者,8~12倍のバッチサイズ)を提供する。
論文 参考訳(メタデータ) (2021-04-21T02:22:10Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。