論文の概要: Dataset Condensation via Generative Model
- arxiv url: http://arxiv.org/abs/2309.07698v1
- Date: Thu, 14 Sep 2023 13:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 14:46:59.010421
- Title: Dataset Condensation via Generative Model
- Title(参考訳): 生成モデルによるデータセットの凝縮
- Authors: David Junhao Zhang, Heng Wang, Chuhui Xue, Rui Yan, Wenqing Zhang,
Song Bai, Mike Zheng Shou
- Abstract要約: 本稿では,大規模データセットを別のフォーマット,生成モデルに変換することを提案する。
このような新しいフォーマットは、クラス数や画像解像度が増加するにつれて生成モデルのサイズが比較的安定であるため、大きなデータセットの凝縮を可能にする。
凝縮試料の関係をモデル化するために,クラス内損失とクラス間損失を提案する。
- 参考スコア(独自算出の注目度): 71.89427409059472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset condensation aims to condense a large dataset with a lot of training
samples into a small set. Previous methods usually condense the dataset into
the pixels format. However, it suffers from slow optimization speed and large
number of parameters to be optimized. When increasing image resolutions and
classes, the number of learnable parameters grows accordingly, prohibiting
condensation methods from scaling up to large datasets with diverse classes.
Moreover, the relations among condensed samples have been neglected and hence
the feature distribution of condensed samples is often not diverse. To solve
these problems, we propose to condense the dataset into another format, a
generative model. Such a novel format allows for the condensation of large
datasets because the size of the generative model remains relatively stable as
the number of classes or image resolution increases. Furthermore, an
intra-class and an inter-class loss are proposed to model the relation of
condensed samples. Intra-class loss aims to create more diverse samples for
each class by pushing each sample away from the others of the same class.
Meanwhile, inter-class loss increases the discriminability of samples by
widening the gap between the centers of different classes. Extensive
comparisons with state-of-the-art methods and our ablation studies confirm the
effectiveness of our method and its individual component. To our best
knowledge, we are the first to successfully conduct condensation on
ImageNet-1k.
- Abstract(参考訳): Dataset Condensationは、大量のトレーニングサンプルを小さなセットに集約することを目的としている。
以前のメソッドは通常、データセットをピクセルフォーマットにコンデンスする。
しかし、最適化速度の遅さと最適化すべきパラメータの多さに悩まされている。
画像の解像度とクラスが増加すると、学習可能なパラメータの数が増加し、さまざまなクラスを持つ大規模なデータセットへの凝縮メソッドのスケーリングが禁止される。
さらに, 凝縮試料間の関係は無視されているため, 凝縮試料の特徴分布は多様ではないことが多い。
これらの問題を解決するために、データセットを別のフォーマット、生成モデルに集約する。
このような新しいフォーマットは、クラス数や画像解像度が増加するにつれて生成モデルのサイズが比較的安定であるため、大きなデータセットの凝縮を可能にする。
さらに, 凝縮試料の関係をモデル化するために, クラス内およびクラス間損失を提案する。
クラス内の損失は、各サンプルを同じクラスの他のものから切り離すことで、クラスごとにより多様なサンプルを作成することを目的としている。
一方、クラス間損失は、異なるクラスの中心間のギャップを広げることで、サンプルの識別性を高める。
最先端の手法との比較およびアブレーション研究により,本手法の有効性が確認された。
私たちはImageNet-1kで結露を成功させた最初の人物です。
関連論文リスト
- Towards Model-Agnostic Dataset Condensation by Heterogeneous Models [13.170099297210372]
我々は,クロスモデル相互作用により,普遍的に適用可能なコンデンサ画像を生成する新しい手法を開発した。
モデルのコントリビューションのバランスとセマンティックな意味の密接な維持により,本手法は,モデル固有凝縮画像に関連する制約を克服する。
論文 参考訳(メタデータ) (2024-09-22T17:13:07Z) - Scaling and Masking: A New Paradigm of Data Sampling for Image and Video
Quality Assessment [24.545341041444797]
画像とビデオの品質評価は局所的な詳細とグローバルな意味の両方を強調するが、一般的なデータサンプリング手法はそれらを同時にキャッチできない。
本研究では,局所的および大域的コンテンツの両方を通常の入力サイズで圧縮する,よりエレガントなデータサンプリング手法を提案する。
実験により,本手法は,現在の単一ブランチモデルの性能を著しく向上し,余分なモデル複雑性を伴わないマルチブランチモデルに対する競合性能を実現することができることを示した。
論文 参考訳(メタデータ) (2024-01-05T03:12:03Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - DC-BENCH: Dataset Condensation Benchmark [79.18718490863908]
この研究は、データセットの凝縮に関する最初の大規模標準ベンチマークを提供する。
それは、凝縮法の生成可能性と有効性を包括的に反映する一連の評価から成り立っている。
ベンチマークライブラリは、将来の研究とアプリケーションを容易にするためにオープンソース化されている。
論文 参考訳(メタデータ) (2022-07-20T03:54:05Z) - Constrained Deep One-Class Feature Learning For Classifying Imbalanced
Medical Images [4.211466076086617]
データの不均衡問題に対処するために、一級分類が注目を集めている。
本稿では,コンパクトな特徴を学習するための新しい深層学習手法を提案する。
提案手法は,各クラスに関連するより関連性の高い特徴を学習し,多数派と少数派のサンプルを識別しやすくする。
論文 参考訳(メタデータ) (2021-11-20T15:25:24Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。