論文の概要: Toward Generative Data Augmentation for Traffic Classification
- arxiv url: http://arxiv.org/abs/2310.13935v1
- Date: Sat, 21 Oct 2023 08:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:29:04.813544
- Title: Toward Generative Data Augmentation for Traffic Classification
- Title(参考訳): 交通分類のための生成データ拡張に向けて
- Authors: Chao Wang, Alessandro Finamore, Pietro Michiardi, Massimo Gallo, Dario
Rossi
- Abstract要約: Data Augmentation (DA) 合成サンプルによるトレーニングデータの拡張 - Computer Vision (CV) で大きく採用され、モデル性能が向上した。
DAは、トラフィック分類(TC)を含むネットワークのユースケースでは、まだ普及していない。
- 参考スコア(独自算出の注目度): 54.92823760790628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Augmentation (DA)-augmenting training data with synthetic samples-is
wildly adopted in Computer Vision (CV) to improve models performance.
Conversely, DA has not been yet popularized in networking use cases, including
Traffic Classification (TC). In this work, we present a preliminary study of 14
hand-crafted DAs applied on the MIRAGE19 dataset. Our results (i) show that DA
can reap benefits previously unexplored in TC and (ii) foster a research agenda
on the use of generative models to automate DA design.
- Abstract(参考訳): Data Augmentation (DA) 合成サンプルによるトレーニングデータの拡張 - Computer Vision (CV) で大きく採用され、モデル性能が向上した。
逆に、daはトラフィック分類(tc)を含むネットワークユースケースではまだ普及していない。
本研究では,MIRAGE19データセットに適用した14個の手作りDAについて予備的検討を行った。
私たちの成果は
i) DAが以前に調査されていない利益を享受できることを示し、
(ii) 生成モデルを用いたda設計の自動化に関する研究課題を提起する。
関連論文リスト
- Generalized Group Data Attribution [28.056149996461286]
データ属性法は、個々のトレーニングデータポイントがモデル出力に与える影響を定量化する。
既存のDAメソッドはしばしば計算集約的であり、大規模な機械学習モデルに適用性を制限する。
本稿では,GA(Generalized Group Data Attribution, GGDA)フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-13T17:51:21Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - Defect Classification in Additive Manufacturing Using CNN-Based Vision
Processing [76.72662577101988]
本稿では、まず、畳み込みニューラルネットワーク(CNN)を用いて、画像データセットの欠陥をAMから第2に正確に分類し、発達した分類モデルにアクティブラーニング技術を適用する。
これにより、トレーニングデータやトレーニングデータの生成に必要なデータのサイズを削減できる、ヒューマン・イン・ザ・ループ機構の構築が可能になる。
論文 参考訳(メタデータ) (2023-07-14T14:36:58Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Instance-Conditioned GAN Data Augmentation for Representation Learning [29.36473147430433]
DA_IC-GANは、学習可能なデータ拡張モジュールで、ほとんどの最先端のトレーニングレシピと組み合わせて、棚外で使用することができる。
DA_IC-GAN は最大容量モデルで 1%p から 2%p の精度を向上できることを示す。
また,DA_IC-GANを自己指導型トレーニングレシピと組み合わせることで,いくつかの設定で1%pの精度向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-03-16T22:45:43Z) - Models in the Loop: Aiding Crowdworkers with Generative Annotation
Assistants [41.9785159975426]
我々は、アノテーションが完全に承認、修正、拒否できるリアルタイム提案を提供するジェネレーティブアシスタント(GAA)を導入する。
GAAは、アノテーションの速度の観点から大きな効率性をもたらすと同時に、モデル偽造率の改善につながっている。
論文 参考訳(メタデータ) (2021-12-16T17:59:39Z) - On Data Augmentation for GAN Training [39.074761323958406]
本稿では,GANトレーニングにおける拡張データの利用を可能にするために,DAG(Data Augmentation Optimized for GAN)を提案する。
我々は異なるGANモデルにDAGを適用する実験を行う。
いくつかのGANモデルでDAGを使用する場合、システムは最先端のFrechet Inception Distance(FID)スコアを確立する。
論文 参考訳(メタデータ) (2020-06-09T15:19:26Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。