論文の概要: GraphComp: Extreme Error-bounded Compression of Scientific Data via Temporal Graph Autoencoders
- arxiv url: http://arxiv.org/abs/2505.06316v1
- Date: Thu, 08 May 2025 18:58:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.779251
- Title: GraphComp: Extreme Error-bounded Compression of Scientific Data via Temporal Graph Autoencoders
- Title(参考訳): GraphComp: 時間グラフオートエンコーダによる科学的データの極端エラー境界圧縮
- Authors: Guozhong Li, Muhannad Alhumaidi, Spiros Skiadopoulos, Ibrahim Hoteit, Panos Kalnis,
- Abstract要約: 科学データの誤り境界圧縮のためのグラフベース手法である GraphCOMP を提案する。
グラフニューラルネットワーク(GNN)に着想を得て,グラフのサイズを大幅に縮小する潜在表現を学習するための時間グラフオートエンコーダを提案する。
圧縮はプロセスを逆転させ、学習したグラフモデルと潜在表現を用いて元のデータの近似を再構築する。
- 参考スコア(独自算出の注目度): 7.129137910302658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generation of voluminous scientific data poses significant challenges for efficient storage, transfer, and analysis. Recently, error-bounded lossy compression methods emerged due to their ability to achieve high compression ratios while controlling data distortion. However, they often overlook the inherent spatial and temporal correlations within scientific data, thus missing opportunities for higher compression. In this paper we propose GRAPHCOMP, a novel graph-based method for error-bounded lossy compression of scientific data. We perform irregular segmentation of the original grid data and generate a graph representation that preserves the spatial and temporal correlations. Inspired by Graph Neural Networks (GNNs), we then propose a temporal graph autoencoder to learn latent representations that significantly reduce the size of the graph, effectively compressing the original data. Decompression reverses the process and utilizes the learnt graph model together with the latent representation to reconstruct an approximation of the original data. The decompressed data are guaranteed to satisfy a user-defined point-wise error bound. We compare our method against the state-of-the-art error-bounded lossy methods (i.e., HPEZ, SZ3.1, SPERR, and ZFP) on large-scale real and synthetic data. GRAPHCOMP consistently achieves the highest compression ratio across most datasets, outperforming the second-best method by margins ranging from 22% to 50%.
- Abstract(参考訳): 輝かしい科学データの生成は、効率的な保存、転送、分析に重大な課題をもたらす。
近年,データ歪みを制御しながら高い圧縮比を達成できることから,誤差境界の損失圧縮法が出現している。
しかし、彼らはしばしば科学データに固有の空間的・時間的相関を見落とし、より高い圧縮の機会を欠いている。
本稿では,科学データの誤り境界圧縮のためのグラフベースの新しい手法である GraphCOMP を提案する。
元のグリッドデータの不規則なセグメンテーションを行い、空間的および時間的相関を保存するグラフ表現を生成する。
グラフニューラルネットワーク(GNN)にインスパイアされた時間グラフオートエンコーダを提案し,グラフのサイズを大幅に削減し,元のデータを効果的に圧縮する潜時表現を学習する。
圧縮はプロセスを逆転させ、学習したグラフモデルと潜在表現を用いて元のデータの近似を再構築する。
圧縮されたデータは、ユーザ定義のポイントワイドエラー境界を満たすことが保証される。
提案手法は,大規模実データおよび合成データに対して,HPEZ,SZ3.1,SPERR,ZFPといった最先端の誤差有界損失法と比較する。
GraphCOMPは、ほとんどのデータセットで最高圧縮比を一貫して達成し、22%から50%のマージンで2番目に良い方法を上回っている。
関連論文リスト
- Enhancing Lossy Compression Through Cross-Field Information for Scientific Applications [11.025583805165455]
ロスシー圧縮は、複数のデータフィールドを含む科学データのサイズを減らす最も効果的な方法の1つである。
従来のアプローチでは、ターゲットデータポイントを予測する際に、単一のターゲットフィールドからのローカル情報を使用し、より高い圧縮比を達成する可能性を制限する。
本稿では,CNNを用いた新たなハイブリッド予測モデルを提案する。
論文 参考訳(メタデータ) (2024-09-26T21:06:53Z) - Sparse $L^1$-Autoencoders for Scientific Data Compression [0.0]
L1$-regularizedの高次元ラテント空間を用いたオートエンコーダの開発により,効率的なデータ圧縮手法を提案する。
本稿では,これらの情報に富む潜伏空間を用いて,ぼやけなどのアーティファクトを緩和し,科学的データに対する高効率なデータ圧縮手法を実現する方法について述べる。
論文 参考訳(メタデータ) (2024-05-23T07:48:00Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Efficient Data Compression for 3D Sparse TPC via Bicephalous
Convolutional Autoencoder [8.759778406741276]
この研究は、textitBicephalous Convolutional AutoEncoder (BCAE)と呼ばれる、空間と回帰を同時に解決するデュアルヘッドオートエンコーダを導入している。
これはMGARD、SZ、ZFPといった従来のデータ圧縮手法と比較して圧縮忠実度と比の両方の利点を示している。
論文 参考訳(メタデータ) (2021-11-09T21:26:37Z) - Partition and Code: learning how to compress graphs [50.29024357495154]
まず、分割アルゴリズムがグラフを基本構造に分解し、これらを確率分布を学習する小さな辞書の要素にマッピングし、エントロピーエンコーダが表現をビットに変換する。
提案アルゴリズムは,非パラメトリックおよびパラメトリックグラフ圧縮器の異なるファミリーに対して,多種多様な実世界のネットワーク上で定量的に評価し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2021-07-05T11:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。