論文の概要: Turning Black Box into White Box: Dataset Distillation Leaks
- arxiv url: http://arxiv.org/abs/2603.01053v1
- Date: Sun, 01 Mar 2026 11:21:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.482956
- Title: Turning Black Box into White Box: Dataset Distillation Leaks
- Title(参考訳): ブラックボックスをホワイトボックスに変える「データセット蒸留リーク」
- Authors: Huajie Chen, Tianqing Zhu, Yuchen Zhong, Yang Zhang, Shang Wang, Feng He, Lefeng Zhang, Jialiang Shen, Minghao Wang, Wanlei Zhou,
- Abstract要約: 既存の蒸留法は, 合成データセットが蒸留モデルの重量軌跡を暗黙的にエンコードしているため, 深刻なプライバシー漏洩を引き起こす可能性がある。
本稿では,最先端の蒸留技術に対する情報啓発攻撃(IRA)について紹介する。
実験により、IRAは蒸留アルゴリズムとモデルアーキテクチャの両方を正確に予測し、メンバーシップを推測し、実際のデータセットから機密サンプルを回収することに成功した。
- 参考スコア(独自算出の注目度): 25.648032166889465
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Dataset distillation compresses a large real dataset into a small synthetic one, enabling models trained on the synthetic data to achieve performance comparable to those trained on the real data. Although synthetic datasets are assumed to be privacy-preserving, we show that existing distillation methods can cause severe privacy leakage because synthetic datasets implicitly encode the weight trajectories of the distilled model, they become over-informative and exploitable by adversaries. To expose this risk, we introduce the Information Revelation Attack (IRA) against state-of-the-art distillation techniques. Experiments show that IRA accurately predicts both the distillation algorithm and model architecture, and can successfully infer membership and recover sensitive samples from the real dataset.
- Abstract(参考訳): データセット蒸留は、大規模な実データセットを小さな合成データセットに圧縮し、合成データでトレーニングされたモデルが実際のデータでトレーニングされたモデルに匹敵するパフォーマンスを達成する。
合成データセットは, プライバシ保存と推定されるが, 合成データセットが暗黙的に蒸留モデルの重み軌跡を符号化しているため, 既存の蒸留手法は深刻なプライバシー漏洩を引き起こす可能性がある。
このリスクを明らかにするため,現状の蒸留技術に対するIRA(Information Revelation Attack)を導入する。
実験により、IRAは蒸留アルゴリズムとモデルアーキテクチャの両方を正確に予測し、メンバーシップを推測し、実際のデータセットから機密サンプルを回収することに成功した。
関連論文リスト
- Osmosis Distillation: Model Hijacking with the Fewest Samples [27.65508058446939]
データセット蒸留法によって生成された合成データセットを用いたトランスファーラーニングにおいて、非無視のセキュリティ脅威が発見されていない。
最少サンプルを用いたディープラーニングモデルをターゲットにした新しいモデルハイジャック戦略であるOsmosis Distillation (OD) 攻撃を提案する。
我々は、伝達学習にサードパーティの合成データセットを使用することの意識を高める必要があると論じている。
論文 参考訳(メタデータ) (2026-03-05T06:34:06Z) - Robust Dataset Distillation by Matching Adversarial Trajectories [21.52323435014135]
我々は, 蒸留プロセス中に, 対向的堅牢性を合成データセットに組み込む新しいパラダイムである「ロバストデータセット蒸留」の課題を紹介する。
本稿では, トラジェクトリに基づくデータセット蒸留に, 逆行訓練を統合する手法であるMatching Adversarial Trajectories (MAT)を提案する。
MATは、トラジェクトリ生成中に反対のサンプルを取り込み、堅牢なトレーニング軌跡を得る。
論文 参考訳(メタデータ) (2025-03-15T10:02:38Z) - Dark Distillation: Backdooring Distilled Datasets without Accessing Raw Data [48.69361050757504]
攻撃者はデータセットの配布プロセスをインターセプトし、蒸留したデータセットにバックドアを注入し、ユーザーに再配布することができる。
蒸留されたデータセットは、以前はバックドア攻撃に耐性があると考えられていたが、そのような攻撃には弱いままであることを示す。
攻撃方法は効率が良く,特定のケースでは1分以内で悪意ある蒸留データセットを作成できる。
論文 参考訳(メタデータ) (2025-02-06T17:14:17Z) - What is Dataset Distillation Learning? [32.99890244958794]
本研究では, 蒸留データの挙動, 代表性, ポイントワイド情報量について検討する。
蒸留したデータは、トレーニング中に実際のデータに代わるものとしては役に立たない。
蒸留データを解釈し、個別の蒸留データポイントが意味のある意味情報を含んでいることを示す枠組みを提供する。
論文 参考訳(メタデータ) (2024-06-06T17:28:56Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - Distill Gold from Massive Ores: Bi-level Data Pruning towards Efficient Dataset Distillation [96.92250565207017]
本研究では,データセット蒸留作業におけるデータ効率と選択について検討する。
蒸留の力学を再現することにより、実際のデータセットに固有の冗長性についての洞察を提供する。
蒸留における因果関係から最も寄与した試料を見出した。
論文 参考訳(メタデータ) (2023-05-28T06:53:41Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - Backdoor Attacks Against Dataset Distillation [24.39067295054253]
本研究は,画像領域におけるデータセット蒸留モデルにより抽出されたデータに基づいて訓練されたモデルに対して,最初のバックドア攻撃を行う。
本研究では,NAIVEATTACKとDOORPINGの2種類のバックドア攻撃を提案する。
実験的な評価では、NAIVEATTACKは攻撃成功率(ASR)をある程度達成し、DOORPINGは全てのケースでより高いASRスコア(1.0に近かった)に達する。
論文 参考訳(メタデータ) (2023-01-03T16:58:34Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Dataset Distillation by Matching Training Trajectories [75.9031209877651]
そこで本研究では,実データと同じような状態にネットワークを誘導するために,蒸留データを最適化する新しい定式化を提案する。
ネットワークが与えられたら、蒸留データを何回か繰り返して訓練し、合成訓練されたパラメータと実データで訓練されたパラメータとの距離に関して蒸留データを最適化する。
本手法は既存の手法よりも優れており,高解像度の視覚データを蒸留することができる。
論文 参考訳(メタデータ) (2022-03-22T17:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。