論文の概要: Data Distillation for Text Classification
- arxiv url: http://arxiv.org/abs/2104.08448v1
- Date: Sat, 17 Apr 2021 04:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:16:08.349588
- Title: Data Distillation for Text Classification
- Title(参考訳): テキスト分類のためのデータ蒸留
- Authors: Yongqi Li, Wenjie Li
- Abstract要約: データ蒸留は、大規模なトレーニングデータセットから、より小さな合成データセットに知識を蒸留することを目的としている。
テキスト分類のための新しいデータ蒸留法を開発した。
元のテキストデータの0.1%のサイズの蒸留されたデータは、元の約90%のパフォーマンスを達成する結果は、かなり印象的です。
- 参考スコア(独自算出の注目度): 7.473576666437028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning techniques have achieved great success in many fields, while at
the same time deep learning models are getting more complex and expensive to
compute. It severely hinders the wide applications of these models. In order to
alleviate this problem, model distillation emerges as an effective means to
compress a large model into a smaller one without a significant drop in
accuracy. In this paper, we study a related but orthogonal issue, data
distillation, which aims to distill the knowledge from a large training dataset
down to a smaller and synthetic one. It has the potential to address the large
and growing neural network training problem based on the small dataset. We
develop a novel data distillation method for text classification. We evaluate
our method on eight benchmark datasets. The results that the distilled data
with the size of 0.1% of the original text data achieves approximately 90%
performance of the original is rather impressive.
- Abstract(参考訳): ディープラーニングのテクニックは多くの分野で大きな成功を収めている一方、ディープラーニングモデルは計算の複雑さとコストが増している。
これはこれらのモデルの幅広い応用を妨げる。
この問題を緩和するために, モデル蒸留は, 精度を著しく低下させることなく, より小さなモデルに圧縮する有効な方法として現れる。
本稿では,大規模学習データセットからより小型で合成的なデータへの知識の抽出を目的としたデータ蒸留について検討する。
小さなデータセットに基づいて、大規模で成長するニューラルネットワークトレーニング問題に対処する可能性がある。
テキスト分類のための新しいデータ蒸留法を開発した。
提案手法を8つのベンチマークデータセットで評価する。
その結果、原文データの0.1%の大きさの蒸留データが、原文の約90%のパフォーマンスを達成することは、かなり印象的である。
関連論文リスト
- Dataset Distillation via Adversarial Prediction Matching [24.487950991247764]
本稿では,データセットの蒸留問題を効率的に解くための逆フレームワークを提案する。
提案手法は,オリジナルデータセットの10%程度の大きさの合成データセットを生成できるが,全オリジナルデータセットでトレーニングしたモデルのテスト精度の94%を平均で達成できる。
論文 参考訳(メタデータ) (2023-12-14T13:19:33Z) - Let's Synthesize Step by Step: Iterative Dataset Synthesis with Large
Language Models by Extrapolating Errors from Small Models [69.76066070227452]
※データ合成*はラベル付きデータの少ない小さなモデルをトレーニングするための有望な方法です。
本稿では,この分散ギャップを縮めるデータ合成フレームワークであるStep* (**S3**) による合成ステップを提案する。
提案手法は,合成データセットと実データとのギャップを小さくすることで,小型モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-20T17:14:25Z) - Towards Lossless Dataset Distillation via Difficulty-Aligned Trajectory
Matching [21.060049493150785]
合成データセットのサイズが大きくなるにつれて有効なアルゴリズムを提案する。
実験により, 一致する軌道の訓練段階が, 蒸留データセットの有効性に大きく影響していることが判明した。
そこで我々は,軌道マッチングに基づく手法を大規模合成データセットに拡張することに成功している。
論文 参考訳(メタデータ) (2023-10-09T14:57:41Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Distill Gold from Massive Ores: Efficient Dataset Distillation via
Critical Samples Selection [101.78275454476311]
情報伝達の文脈内でデータセット蒸留タスクをモデル化する。
我々は、データユーティリティー推定器のファミリーと、最も価値のあるサンプルを利用する最適なデータ選択方法を導入し、検証する。
提案手法は, より大規模で異種なデータセットであっても, 蒸留アルゴリズムを一貫して強化する。
論文 参考訳(メタデータ) (2023-05-28T06:53:41Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Learning to Generate Synthetic Training Data using Gradient Matching and
Implicit Differentiation [77.34726150561087]
本稿では,深層ネットワークの訓練に要するデータ量を削減できる各種データ蒸留技術について検討する。
近年の考え方に触発されて, 生成的学習ネットワーク, 勾配マッチング, インプリシット関数理論に基づく新しいデータ蒸留手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T11:45:32Z) - Dataset Distillation with Infinitely Wide Convolutional Networks [18.837952916998947]
分散カーネルをベースとしたメタラーニングフレームワークを用いて,データセット蒸留の最先端結果を実現する。
CIFAR-10画像分類タスクでは64%以上のテスト精度が得られた。
我々の現状は、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100、SVHNの他の多くの設定にも及んでいる。
論文 参考訳(メタデータ) (2021-07-27T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。