論文の概要: Dataset Condensation with Color Compensation
- arxiv url: http://arxiv.org/abs/2508.01139v1
- Date: Sat, 02 Aug 2025 01:44:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.695401
- Title: Dataset Condensation with Color Compensation
- Title(参考訳): 色補正によるデータセットの凝縮
- Authors: Huyu Wu, Duo Su, Junjie Hou, Guang Li,
- Abstract要約: 画像レベルの選択方法(コアセット選択、データセット量子化)は、凝縮不効率に悩まされる。
データセットの凝縮における重要な問題は、情報キャリアと基本的な意味表現ユニットとしてのカラーの二重の役割の監視である。
我々は、Color Compensationを用いたデータセット凝縮フレームワークDC3を提案する。
- 参考スコア(独自算出の注目度): 1.8962690634270805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset condensation always faces a constitutive trade-off: balancing performance and fidelity under extreme compression. Existing methods struggle with two bottlenecks: image-level selection methods (Coreset Selection, Dataset Quantization) suffer from inefficiency condensation, while pixel-level optimization (Dataset Distillation) introduces semantic distortion due to over-parameterization. With empirical observations, we find that a critical problem in dataset condensation is the oversight of color's dual role as an information carrier and a basic semantic representation unit. We argue that improving the colorfulness of condensed images is beneficial for representation learning. Motivated by this, we propose DC3: a Dataset Condensation framework with Color Compensation. After a calibrated selection strategy, DC3 utilizes the latent diffusion model to enhance the color diversity of an image rather than creating a brand-new one. Extensive experiments demonstrate the superior performance and generalization of DC3 that outperforms SOTA methods across multiple benchmarks. To the best of our knowledge, besides focusing on downstream tasks, DC3 is the first research to fine-tune pre-trained diffusion models with condensed datasets. The FID results prove that training networks with our high-quality datasets is feasible without model collapse or other degradation issues. Code and generated data will be released soon.
- Abstract(参考訳): データセットの凝縮は常に構成的なトレードオフに直面します。
画像レベルの選択法(コアセット選択、データセット量子化)は非効率な凝縮に悩まされ、画素レベルの最適化(データセット蒸留)はオーバーパラメータ化による意味的歪みをもたらす。
経験的観察により、データセットの凝縮における重要な問題は、情報キャリアと基本的な意味表現ユニットとしてのカラーの二重の役割の監督であることがわかった。
コンデンサ画像のカラフル化は表現学習にとって有益である,と我々は主張する。
そこで我々は,色補償付きデータセット凝縮フレームワークDC3を提案する。
校正選択戦略の後、DC3は遅延拡散モデルを用いて、新しい画像を生成するのではなく、画像の色多様性を高める。
大規模な実験では、複数のベンチマークでSOTA法より優れているDC3の性能と一般化が示されている。
我々の知る限りでは、DC3は下流タスクにフォーカスする以外に、凝縮したデータセットで事前訓練された拡散モデルを微調整する最初の研究である。
FIDの結果は、高品質なデータセットによるトレーニングネットワークが、モデル崩壊や他の劣化問題なしに実現可能であることを証明している。
コードと生成されたデータはまもなくリリースされる。
関連論文リスト
- DPBridge: Latent Diffusion Bridge for Dense Prediction [49.1574468325115]
DPBridgeは、密度予測タスクのための最初の潜伏拡散ブリッジフレームワークである。
提案手法は,異なるシナリオ下での有効性と能力の一般化を実証し,優れた性能を継続的に達成する。
論文 参考訳(メタデータ) (2024-12-29T15:50:34Z) - A Bias-Free Training Paradigm for More General AI-generated Image Detection [15.421102443599773]
良く設計された法医学的検知器は、データバイアスを反映するのではなく、生成物固有のアーティファクトを検出する必要がある。
本稿では,実画像から偽画像を生成する,バイアスのない学習パラダイムであるB-Freeを提案する。
我々は,最先端検出器の一般化とロバスト性の両方において有意な改善が認められた。
論文 参考訳(メタデータ) (2024-12-23T15:54:32Z) - Reframing Image Difference Captioning with BLIP2IDC and Synthetic Augmentation [5.887986127737718]
BLIP2IDCは,画像差分キャプション(IDC)タスクへのBLIP2の適応であり,低コストで導入する。
我々は、実世界のIDCデータセットにおいて、2ストリームのアプローチよりも大きな差があることを示します。
また,IDCモデルの性能を非依存的に向上させるために合成拡張法を提案する。
論文 参考訳(メタデータ) (2024-12-20T14:32:56Z) - Decomposed Distribution Matching in Dataset Condensation [16.40653529334528]
最近の研究は、コストのかかる二段階最適化を回避した分布整合問題としてDCを定式化している。
本稿では,オリジナルデータとコンデンスデータのスタイル情報とを一致させる,シンプルで効果的な手法を提案する。
様々なサイズと解像度のデータセットを用いた実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-12-06T03:20:36Z) - M3D: Dataset Condensation by Minimizing Maximum Mean Discrepancy [26.227927019615446]
最先端の訓練(SOTA)の深層モデルは、しばしば膨大なデータを必要とするため、かなりの訓練と保存コストがかかる。
データセットの凝縮は、オリジナルの大規模データセットから必須情報を保存する小さな合成集合を学ぶために開発された。
本稿では,最大平均離散度を最小化することにより,データセットの凝縮を最小化するためのM3Dという新しいDMベースの手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T07:45:32Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - Noise Self-Regression: A New Learning Paradigm to Enhance Low-Light Images Without Task-Related Data [86.68013790656762]
タスク関連のデータにアクセスせずにノイズ自己回帰(NoiSER)を提案する。
NoiSERは品質向上に非常に競争力があるが、モデルのサイズははるかに小さく、トレーニングや推論のコストもはるかに低い。
論文 参考訳(メタデータ) (2022-11-09T06:18:18Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。