論文の概要: Robust Dataset Distillation by Matching Adversarial Trajectories
- arxiv url: http://arxiv.org/abs/2503.12069v1
- Date: Sat, 15 Mar 2025 10:02:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:31:30.526493
- Title: Robust Dataset Distillation by Matching Adversarial Trajectories
- Title(参考訳): 対向軌道のマッチングによるロバストデータセット蒸留
- Authors: Wei Lai, Tianyu Ding, ren dongdong, Lei Wang, Jing Huo, Yang Gao, Wenbin Li,
- Abstract要約: 我々は, 蒸留プロセス中に, 対向的堅牢性を合成データセットに組み込む新しいパラダイムである「ロバストデータセット蒸留」の課題を紹介する。
本稿では, トラジェクトリに基づくデータセット蒸留に, 逆行訓練を統合する手法であるMatching Adversarial Trajectories (MAT)を提案する。
MATは、トラジェクトリ生成中に反対のサンプルを取り込み、堅牢なトレーニング軌跡を得る。
- 参考スコア(独自算出の注目度): 21.52323435014135
- License:
- Abstract: Dataset distillation synthesizes compact datasets that enable models to achieve performance comparable to training on the original large-scale datasets. However, existing distillation methods overlook the robustness of the model, resulting in models that are vulnerable to adversarial attacks when trained on distilled data. To address this limitation, we introduce the task of ``robust dataset distillation", a novel paradigm that embeds adversarial robustness into the synthetic datasets during the distillation process. We propose Matching Adversarial Trajectories (MAT), a method that integrates adversarial training into trajectory-based dataset distillation. MAT incorporates adversarial samples during trajectory generation to obtain robust training trajectories, which are then used to guide the distillation process. As experimentally demonstrated, even through natural training on our distilled dataset, models can achieve enhanced adversarial robustness while maintaining competitive accuracy compared to existing distillation methods. Our work highlights robust dataset distillation as a new and important research direction and provides a strong baseline for future research to bridge the gap between efficient training and adversarial robustness.
- Abstract(参考訳): データセット蒸留は、モデルが元の大規模データセットのトレーニングに匹敵するパフォーマンスを達成することができるような、コンパクトなデータセットを合成する。
しかし、既存の蒸留法はモデルの堅牢性を見落としており、蒸留データに基づいて訓練された場合、敵の攻撃に弱いモデルとなる。
この制限に対処するため, 蒸留過程で合成データセットに対向的ロバスト性を組み込む新しいパラダイムである「ロバストデータセット蒸留」の課題を紹介する。
本稿では, トラジェクトリに基づくデータセット蒸留に, 逆行訓練を統合する手法であるMatching Adversarial Trajectories (MAT)を提案する。
MATは、トラジェクトリ生成中に反対のサンプルを取り込み、堅牢なトレーニング軌跡を得る。
実験により, 蒸留データセットの自然学習においても, 既存の蒸留法と比較して競争精度を保ちながら, 対向ロバスト性を向上できることを示した。
我々の研究は、新しい重要研究の方向性として頑健なデータセット蒸留に注目し、効率的なトレーニングと敵の堅牢性の間のギャップを埋めるために、将来の研究のための強力なベースラインを提供する。
関連論文リスト
- Generative Dataset Distillation Based on Self-knowledge Distillation [49.20086587208214]
本稿では,予測ロジットの整列精度を向上させる新しい生成データセット蒸留法を提案する。
本手法は, 合成データと原データとのより正確な分布マッチングを実現するために, 自己知識蒸留を統合したものである。
提案手法は, 既存の最先端手法より優れており, 蒸留性能が良好である。
論文 参考訳(メタデータ) (2025-01-08T00:43:31Z) - Exploring the potential of prototype-based soft-labels data distillation for imbalanced data classification [0.0]
主な目的は、分類精度の観点からプロトタイプベースの軟質ラベル蒸留の性能を高めることである。
実験的研究は、この方法でデータを蒸留する能力だけでなく、増量法として機能する機会も追求している。
論文 参考訳(メタデータ) (2024-03-25T19:15:19Z) - Towards Adversarially Robust Dataset Distillation by Curvature Regularization [11.02948004359488]
蒸留したデータセットに対向ロバスト性を組み込むことで、これらのデータセットでトレーニングされたモデルが高い精度を維持し、より良い対向ロバスト性を得る。
そこで本研究では, 従来の逆算法よりも計算オーバーヘッドの少ない蒸留プロセスに曲率正規化を組み込むことにより, この目標を達成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-15T06:31:03Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - Data Distillation Can Be Like Vodka: Distilling More Times For Better
Quality [78.6359306550245]
蒸留に1つの合成部分集合を用いるだけでは最適な一般化性能は得られない。
PDDは複数の小さな合成画像集合を合成し、それぞれ前の集合に条件付けし、これらの部分集合の累積和でモデルを訓練する。
実験の結果, PDDは既存のデータセット蒸留法の性能を最大4.3%向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-10-10T20:04:44Z) - Distill Gold from Massive Ores: Bi-level Data Pruning towards Efficient Dataset Distillation [96.92250565207017]
本研究では,データセット蒸留作業におけるデータ効率と選択について検討する。
蒸留の力学を再現することにより、実際のデータセットに固有の冗長性についての洞察を提供する。
蒸留における因果関係から最も寄与した試料を見出した。
論文 参考訳(メタデータ) (2023-05-28T06:53:41Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Dataset Distillation by Matching Training Trajectories [75.9031209877651]
そこで本研究では,実データと同じような状態にネットワークを誘導するために,蒸留データを最適化する新しい定式化を提案する。
ネットワークが与えられたら、蒸留データを何回か繰り返して訓練し、合成訓練されたパラメータと実データで訓練されたパラメータとの距離に関して蒸留データを最適化する。
本手法は既存の手法よりも優れており,高解像度の視覚データを蒸留することができる。
論文 参考訳(メタデータ) (2022-03-22T17:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。