論文の概要: Data Augmentation for Traffic Classification
- arxiv url: http://arxiv.org/abs/2401.10754v1
- Date: Fri, 19 Jan 2024 15:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:35:19.039473
- Title: Data Augmentation for Traffic Classification
- Title(参考訳): 交通分類のためのデータ拡張
- Authors: Chao Wang, Alessandro Finamore, Pietro Michiardi, Massimo Gallo, Dario
Rossi
- Abstract要約: Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
- 参考スコア(独自算出の注目度): 54.92823760790628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Augmentation (DA) -- enriching training data by adding synthetic samples
-- is a technique widely adopted in Computer Vision (CV) and Natural Language
Processing (NLP) tasks to improve models performance. Yet, DA has struggled to
gain traction in networking contexts, particularly in Traffic Classification
(TC) tasks. In this work, we fulfill this gap by benchmarking 18 augmentation
functions applied to 3 TC datasets using packet time series as input
representation and considering a variety of training conditions. Our results
show that (i) DA can reap benefits previously unexplored with (ii)
augmentations acting on time series sequence order and masking being a better
suit for TC and (iii) simple latent space analysis can provide hints about why
augmentations have positive or negative effects.
- Abstract(参考訳): Data Augmentation (DA) -- 合成サンプルを追加してトレーニングデータを強化する - は、モデルパフォーマンスを改善するためにコンピュータビジョン(CV)と自然言語処理(NLP)タスクに広く採用されているテクニックである。
しかし、daはネットワークのコンテキスト、特にトラフィック分類(tc)タスクで牽引力を得るのに苦労している。
本研究では,パケット時系列を入力表現として用いた3TCデータセットに適用した18の拡張関数をベンチマークし,様々な訓練条件を考慮した。
私たちの結果は
(i)daは、未調査の利益を享受することができる
二 時系列順序の順に作用する増補及びマスクは、TCK及びTCKにとってより適しているもの
三) 単純な潜在空間解析は、拡張が正あるいは負の効果を持つ理由のヒントを与えることができる。
関連論文リスト
- Toward Generative Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) 合成サンプルによるトレーニングデータの拡張 - Computer Vision (CV) で大きく採用され、モデル性能が向上した。
DAは、トラフィック分類(TC)を含むネットワークのユースケースでは、まだ普及していない。
論文 参考訳(メタデータ) (2023-10-21T08:08:37Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Instance-Conditioned GAN Data Augmentation for Representation Learning [29.36473147430433]
DA_IC-GANは、学習可能なデータ拡張モジュールで、ほとんどの最先端のトレーニングレシピと組み合わせて、棚外で使用することができる。
DA_IC-GAN は最大容量モデルで 1%p から 2%p の精度を向上できることを示す。
また,DA_IC-GANを自己指導型トレーニングレシピと組み合わせることで,いくつかの設定で1%pの精度向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-03-16T22:45:43Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - On Automatic Data Augmentation for 3D Point Cloud Classification [19.338266486983176]
両レベル最適化を用いてデータ拡張戦略を自動学習することを提案する。
拡張器は条件付きジェネレータと同じような設計で、バリデーションセットにおけるベースモデルの損失を最小限に抑えて最適化される。
標準的なクラウド分類タスクに対する我々のアプローチと、トレーニングと検証/テストセットのミスアライメントによるより困難な設定について評価する。
論文 参考訳(メタデータ) (2021-12-11T17:14:16Z) - Adaptive Weighting Scheme for Automatic Time-Series Data Augmentation [79.47771259100674]
データ拡張のための2つのサンプル適応自動重み付けスキームを提案する。
提案手法を大規模でノイズの多い財務データセットとUCRアーカイブからの時系列データセット上で検証する。
金融データセットでは、取引戦略と組み合わせた手法が50 $%$以上の年間収益の改善につながることを示し、時系列データでは、データセットの半分以上で最新モデルを上回るパフォーマンスを発揮し、他のものと同様の精度を達成しています。
論文 参考訳(メタデータ) (2021-02-16T17:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。