論文の概要: Multimodal Dataset Distillation Made Simple by Prototype-Guided Data Synthesis
- arxiv url: http://arxiv.org/abs/2602.19756v1
- Date: Mon, 23 Feb 2026 12:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.799608
- Title: Multimodal Dataset Distillation Made Simple by Prototype-Guided Data Synthesis
- Title(参考訳): プロトタイプ誘導データ合成による簡易なマルチモーダルデータセット蒸留
- Authors: Junhyeok Choi, Sangwoo Mo, Minwoo Chae,
- Abstract要約: 本研究では,大規模学習と最適化の必要性を解消する学習自由なデータセット蒸留フレームワークを提案する。
提案手法では,CLIPを用いて画像テキスト埋め込みを抽出し,プロトタイプを取得し,UnCLIPデコーダを用いて画像合成を行う。
- 参考スコア(独自算出の注目度): 8.74674837306488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in multimodal learning have achieved remarkable success across diverse vision-language tasks. However, such progress heavily relies on large-scale image-text datasets, making training costly and inefficient. Prior efforts in dataset filtering and pruning attempt to mitigate this issue, but still require relatively large subsets to maintain performance and fail under very small subsets. Dataset distillation offers a promising alternative, yet existing multimodal dataset distillation methods require full-dataset training and joint optimization of image pixels and text features, making them architecture-dependent and limiting cross-architecture generalization. To overcome this, we propose a learning-free dataset distillation framework that eliminates the need for large-scale training and optimization while enhancing generalization across architectures. Our method uses CLIP to extract aligned image-text embeddings, obtains prototypes, and employs an unCLIP decoder to synthesize images, enabling efficient and scalable multimodal dataset distillation. Extensive experiments demonstrate that our approach consistently outperforms optimization-based dataset distillation and subset selection methods, achieving state-of-the-art cross-architecture generalization.
- Abstract(参考訳): マルチモーダル学習の最近の進歩は、様々な視覚言語タスクで顕著な成功を収めている。
しかし、このような進歩は大規模な画像テキストデータセットに大きく依存しており、トレーニングをコストと非効率にしている。
データセットフィルタリングとプルーニングの以前の取り組みはこの問題を緩和しようとしたが、パフォーマンスを維持するためには比較的大きなサブセットが必要であり、非常に小さなサブセットで失敗する。
データセットの蒸留は有望な代替手段であるが、既存のマルチモーダルデータセットの蒸留法では、画像ピクセルとテキストの特徴の完全なデータセットのトレーニングと共同最適化が必要であり、アーキテクチャに依存し、クロスアーキテクチャの一般化を制限する。
そこで本研究では,大規模学習と最適化の必要性を解消し,アーキテクチャ間の一般化を向上する学習自由なデータセット蒸留フレームワークを提案する。
提案手法では,CLIPを用いて画像テキスト埋め込みを抽出し,プロトタイプを取得し,UnCLIPデコーダを用いて画像合成を行い,効率よくスケーラブルなマルチモーダルデータセット蒸留を実現する。
大規模な実験により,我々の手法は最適化に基づくデータセットの蒸留法やサブセットの選択法を一貫して上回り,最先端のクロスアーキテクチャの一般化を実現している。
関連論文リスト
- Foreground-Aware Dataset Distillation via Dynamic Patch Selection [56.565143366562495]
コンテンツ適応方式でパッチ選択を向上する前景対応型データセット蒸留法を提案する。
複数のベンチマーク実験により,提案手法は既存手法よりも蒸留性能を一貫して向上することが示された。
論文 参考訳(メタデータ) (2026-01-06T05:44:02Z) - Efficient Multimodal Dataset Distillation via Generative Models [37.60051495186203]
本稿では,効率的なマルチモーダルデータセット蒸留のための生成蒸留法であるEDGEを紹介する。
具体的には、生成モデルを用いてマルチモーダルデータセットを蒸留する2つの重要な課題を特定する。
両方向のコントラスト損失と多様性損失を有する新しい生成モデルトレーニングワークフローを提案する。
提案手法はFlickr30K,COCO,CC3Mのデータセットを用いて評価し,既存の手法と比較して優れた性能と効率性を示す。
論文 参考訳(メタデータ) (2025-09-18T22:36:57Z) - ATOM: Attention Mixer for Efficient Dataset Distillation [17.370852204228253]
本研究では,チャネルと空間的注意の混合を用いて,大規模データセットを効率よく抽出するモジュールを提案する。
どちらのタイプの注目も統合することで、ATOMモジュールは様々なコンピュータビジョンデータセットにまたがる優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-02T15:15:01Z) - One Category One Prompt: Dataset Distillation using Diffusion Models [22.512552596310176]
本稿では,D3M(Diffusion Models)をデータセット蒸留の新たなパラダイムとして導入し,生成的テキスト・画像基盤モデルの最近の進歩を活用する。
提案手法では,テキストから画像への合成モデルを微調整する手法であるテキストインバージョンを用いて,大規模データセットの簡潔かつ情報的な表現を生成する。
論文 参考訳(メタデータ) (2024-03-11T20:23:59Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - A Comprehensive Survey of Dataset Distillation [73.15482472726555]
限られた計算能力で無制限に成長するデータを扱うことは困難になっている。
ディープラーニング技術はこの10年で前例のない発展を遂げた。
本稿では,多面的なデータセット蒸留の総合的な理解を提供する。
論文 参考訳(メタデータ) (2023-01-13T15:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。