論文の概要: Beyond Pixels: Efficient Dataset Distillation via Sparse Gaussian Representation
- arxiv url: http://arxiv.org/abs/2509.26219v1
- Date: Tue, 30 Sep 2025 13:19:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.54867
- Title: Beyond Pixels: Efficient Dataset Distillation via Sparse Gaussian Representation
- Title(参考訳): ピクセルを超えて:スパースガウス表現による効率的なデータセット蒸留
- Authors: Chenyang Jiang, Zhengcen Li, Hang Zhao, Qiben Shan, Shaocong Wu, Jingyong Su,
- Abstract要約: GSDDは,2次元ガウシアンに基づくデータセット蒸留のための新規かつ効率的なスパース表現である。
すべてのピクセルを等しく表現する代わりに、GSDDは少数のガウス原始体を用いて蒸留された画像に重要な離散情報を符号化する。
実験の結果,GSDD は CIFAR-10, CIFAR-100, ImageNet サブセット上での最先端性能を実現し, 高効率な符号化と復号化のコストを抑えることができた。
- 参考スコア(独自算出の注目度): 37.57424511974552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset distillation has emerged as a promising paradigm that synthesizes compact, informative datasets capable of retaining the knowledge of large-scale counterparts, thereby addressing the substantial computational and storage burdens of modern model training. Conventional approaches typically rely on dense pixel-level representations, which introduce redundancy and are difficult to scale up. In this work, we propose GSDD, a novel and efficient sparse representation for dataset distillation based on 2D Gaussians. Instead of representing all pixels equally, GSDD encodes critical discriminative information in a distilled image using only a small number of Gaussian primitives. This sparse representation could improve dataset diversity under the same storage budget, enhancing coverage of difficult samples and boosting distillation performance. To ensure both efficiency and scalability, we adapt CUDA-based splatting operators for parallel inference and training, enabling high-quality rendering with minimal computational and memory overhead. Our method is simple yet effective, broadly applicable to different distillation pipelines, and highly scalable. Experiments show that GSDD achieves state-of-the-art performance on CIFAR-10, CIFAR-100, and ImageNet subsets, while remaining highly efficient encoding and decoding cost. Our code is available at https://github.com/j-cyoung/GSDatasetDistillation.
- Abstract(参考訳): データセットの蒸留は、大規模モデルの知識を保持できるコンパクトで情報的なデータセットを合成し、現代のモデルトレーニングのかなりの計算と記憶の負担に対処する、有望なパラダイムとして登場した。
従来のアプローチは一般的にピクセルレベルの密度の高い表現に依存しており、冗長性を導入し、スケールアップが困難である。
本研究では,2次元ガウシアンに基づくデータセット蒸留のための新規かつ効率的なスパース表現であるGSDDを提案する。
すべてのピクセルを等しく表現する代わりに、GSDDは少数のガウス原始体を用いて蒸留された画像において重要な識別情報を符号化する。
このスパース表現は、同じストレージ予算の下でデータセットの多様性を改善し、難しいサンプルのカバレッジを高め、蒸留性能を高めることができる。
効率性とスケーラビリティを両立させるため、CUDAベースのスプレイティング演算子を並列推論とトレーニングに適用し、計算とメモリのオーバーヘッドを最小限に抑えた高品質なレンダリングを可能にする。
本手法は, 簡便かつ有効であり, 異なる蒸留パイプラインに適用可能であり, 高度にスケーラブルである。
実験の結果,GSDD は CIFAR-10, CIFAR-100, ImageNet サブセット上での最先端性能を実現し, 高効率な符号化と復号化のコストを抑えることができた。
私たちのコードはhttps://github.com/j-cyoung/GSDatasetDistillationで利用可能です。
関連論文リスト
- Vision-Language Alignment from Compressed Image Representations using 2D Gaussian Splatting [4.2390854432099205]
現代のビジョン言語パイプラインは、大量の画像テキストコーパスでトレーニングされたRGBビジョンエンコーダによって駆動される。
これらのパイプラインは、ピクセル領域から2つの構造的非効率を継承する: (i) エッジデバイスからクラウドへ高密度のRGB画像を送信することはエネルギー集約的でコストがかかり、 (ii) パッチベースのトークン化はシーケンス長を爆発させる。
2次元ガウス散乱(2DGS)をアライメントのための代替視覚基板として検討する。
論文 参考訳(メタデータ) (2025-09-26T17:41:57Z) - Emphasizing Discriminative Features for Dataset Distillation in Complex Scenarios [60.470289963986716]
合成画像における重要な識別領域を強化するデータセット蒸留法であるEDFを提案する。
単純なデータセットでは、高活性化領域が画像の大部分を占めるのに対して、複雑なシナリオでは、これらの領域のサイズはずっと小さくなります。
特にEDFは、ImageNet-1Kサブセットのような複雑なシナリオにおいて、SOTAの結果を一貫して上回る。
論文 参考訳(メタデータ) (2024-10-22T17:13:19Z) - Image-GS: Content-Adaptive Image Representation via 2D Gaussians [52.598772767324036]
本稿では,2次元ガウス放射率に基づくコンテンツ適応型画像表現であるImage-GSを紹介する。
リアルタイム使用のためにハードウェアフレンドリーな高速アクセスをサポートし、ピクセルをデコードするためには0.3KのMACしか必要としない。
テクスチャ圧縮、セマンティクス対応圧縮、共同画像圧縮と復元など、いくつかのアプリケーションでその汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-02T00:45:21Z) - Curriculum Dataset Distillation [33.167484258219766]
性能とスケーラビリティの調和を目的としたカリキュラムベースのデータセット蒸留フレームワークを提案する。
この枠組みは、合成画像を戦略的に蒸留し、単純なものから複雑なものへと遷移するカリキュラムに固執する。
本フレームワークでは,Tiny-ImageNetで11.1%,ImageNet-1Kで9.0%,ImageNet-21Kで7.3%の大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-05-15T07:27:14Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - Leveraging Representations from Intermediate Encoder-blocks for Synthetic Image Detection [13.840950434728533]
SID(State-of-the-art Synthetic Image Detection)研究は、基礎モデルからの特徴抽出の利点を強く証明している。
軽量ネットワークを介してCLIPの画像エンコーダの中間トランスフォーマーブロックから抽出した画像表現を利用する。
本手法は,20個のテストデータセットで評価し,平均+10.6%の絶対性能向上を示すことにより,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-02-29T12:18:43Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Closed-Loop Transcription via Convolutional Sparse Coding [29.75613581643052]
オートエンコーダはしばしばエンコーダやデコーダとして汎用的なディープネットワークを使用するが、解釈が難しい。
本研究では,多段畳み込みスパース符号化(CSC)から画像分布が生成されることを明示的に仮定する。
提案手法は, より構造化され, 解釈可能な表現, より安定した収束, 大規模データセットのスケーラビリティなど, 様々なメリットを享受する。
論文 参考訳(メタデータ) (2023-02-18T14:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。