論文の概要: Bilateral Distribution Compression: Reducing Both Data Size and Dimensionality
- arxiv url: http://arxiv.org/abs/2509.17543v1
- Date: Mon, 22 Sep 2025 09:01:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.312895
- Title: Bilateral Distribution Compression: Reducing Both Data Size and Dimensionality
- Title(参考訳): バイラテラル分布圧縮:データサイズと次元の両方を減らす
- Authors: Dominic Broadbent, Nick Whiteley, Robert Allison, Tom Lovett,
- Abstract要約: 既存の分布圧縮法は、元の集合と圧縮された集合の間の最大平均離散性(MMD)を最小化することでデータセットサイズを削減する。
両軸に沿って圧縮し,基礎となる分布を保存した2段階のフレームワークであるバイラテラル分布圧縮(BDC)を提案する。
実験により、BDCは環境空間圧縮に匹敵する性能または優れた性能を著しく低コストで達成できることが示された。
- 参考スコア(独自算出の注目度): 3.306210898339407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing distribution compression methods reduce dataset size by minimising the Maximum Mean Discrepancy (MMD) between original and compressed sets, but modern datasets are often large in both sample size and dimensionality. We propose Bilateral Distribution Compression (BDC), a two-stage framework that compresses along both axes while preserving the underlying distribution, with overall linear time and memory complexity in dataset size and dimension. Central to BDC is the Decoded MMD (DMMD), which quantifies the discrepancy between the original data and a compressed set decoded from a low-dimensional latent space. BDC proceeds by (i) learning a low-dimensional projection using the Reconstruction MMD (RMMD), and (ii) optimising a latent compressed set with the Encoded MMD (EMMD). We show that this procedure minimises the DMMD, guaranteeing that the compressed set faithfully represents the original distribution. Experiments show that across a variety of scenarios BDC can achieve comparable or superior performance to ambient-space compression at substantially lower cost.
- Abstract(参考訳): 既存の分布圧縮法は、原集合と圧縮された集合の間の最大平均離散性(MMD)を最小化することでデータセットサイズを減らすが、現代のデータセットは標本サイズと寸法の両方において大きいことが多い。
両軸に沿って圧縮する2段階のフレームワークであるバイラテラル分布圧縮(BDC)を提案する。
BDCの中心はデコードMD(DMMD)であり、低次元のラテント空間からデコードされた圧縮された集合と元のデータとの差を定量化する。
BDCが進む
(i)再構成MD(RMMD)を用いて低次元投影を学習し、
(II)Encoded MMD(EMMD)を用いて遅延圧縮セットを最適化する。
本手法は,圧縮された集合が元の分布を忠実に表現することを保証し,DMMDを最小化することを示す。
実験により、BDCは環境空間圧縮と同等または優れた性能を極めて低コストで達成できることが示された。
関連論文リスト
- ResSVD: Residual Compensated SVD for Large Language Model Compression [12.539815070352116]
大規模言語モデル(LLM)は、幅広い下流自然言語処理タスクにおいて印象的な機能を示している。
本稿では,ポストトレーニング後のSVDに基づくLLM圧縮手法であるResSVDを提案する。
トラニケート過程中に発生する残留行列を利用してトラニケート損失を低減する。
論文 参考訳(メタデータ) (2025-05-26T15:14:54Z) - Low-Rank Compression for IMC Arrays [7.315486393304946]
低ランク圧縮は、それ自身の課題、すなわち、最適なIMCアレイの利用と、妥協された精度を示す。
提案手法は,既存の刈り取り技術に比べて最大2.5倍の高速化または+20.9%の精度向上を実現する。
論文 参考訳(メタデータ) (2025-02-10T08:57:39Z) - BiMaCoSR: Binary One-Step Diffusion Model Leveraging Flexible Matrix Compression for Real Super-Resolution [63.777210548110425]
本稿では,バイナライゼーションと1段階蒸留を組み合わせたBiMaCoSRを提案する。
BiMaCoSRはFPに比べて23.8倍圧縮率と27.4倍スピードアップ比を達成した。
論文 参考訳(メタデータ) (2025-02-01T06:34:55Z) - Sparse $L^1$-Autoencoders for Scientific Data Compression [0.0]
L1$-regularizedの高次元ラテント空間を用いたオートエンコーダの開発により,効率的なデータ圧縮手法を提案する。
本稿では,これらの情報に富む潜伏空間を用いて,ぼやけなどのアーティファクトを緩和し,科学的データに対する高効率なデータ圧縮手法を実現する方法について述べる。
論文 参考訳(メタデータ) (2024-05-23T07:48:00Z) - MISC: Ultra-low Bitrate Image Semantic Compression Driven by Large Multimodal Model [78.4051835615796]
本稿では,マルチモーダル画像セマンティック圧縮法を提案する。
画像の意味情報を抽出するLMMエンコーダと、その意味に対応する領域を特定するマップエンコーダと、非常に圧縮されたビットストリームを生成する画像エンコーダと、前記情報に基づいて画像を再構成するデコーダとからなる。
知覚50%を節約しながら最適な一貫性と知覚結果を達成することができ、これは次世代のストレージと通信において強力な可能性を持つ。
論文 参考訳(メタデータ) (2024-02-26T17:11:11Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Efficient Data Compression for 3D Sparse TPC via Bicephalous
Convolutional Autoencoder [8.759778406741276]
この研究は、textitBicephalous Convolutional AutoEncoder (BCAE)と呼ばれる、空間と回帰を同時に解決するデュアルヘッドオートエンコーダを導入している。
これはMGARD、SZ、ZFPといった従来のデータ圧縮手法と比較して圧縮忠実度と比の両方の利点を示している。
論文 参考訳(メタデータ) (2021-11-09T21:26:37Z) - Neural Network Compression for Noisy Storage Devices [71.4102472611862]
従来、モデル圧縮と物理ストレージは分離される。
このアプローチでは、ストレージは圧縮されたモデルの各ビットを等しく扱い、各ビットに同じ量のリソースを割り当てるように強制される。
i) 各メモリセルの容量を最大化するためにアナログメモリを使用し, (ii) モデル圧縮と物理ストレージを共同で最適化し, メモリの有用性を最大化する。
論文 参考訳(メタデータ) (2021-02-15T18:19:07Z) - MuSCLE: Multi Sweep Compression of LiDAR using Deep Entropy Models [78.93424358827528]
本稿では,LiDARセンサデータのストレージストリームを削減するための新しい圧縮アルゴリズムを提案する。
本手法は,従来のLiDAR圧縮法よりも接合形状と強度を著しく低減する。
論文 参考訳(メタデータ) (2020-11-15T17:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。