論文の概要: Embarrassingly Simple MixUp for Time-series
- arxiv url: http://arxiv.org/abs/2304.04271v1
- Date: Sun, 9 Apr 2023 16:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:31:26.825921
- Title: Embarrassingly Simple MixUp for Time-series
- Title(参考訳): 時系列のMixUpを恥ずかしく簡単に
- Authors: Karan Aggarwal, Jaideep Srivastava
- Abstract要約: 時系列ドメインでは、MixUpと呼ばれる最も一般的なテクニックの1つを適用します。
提案する MixUp++ と LatentMixUp++ は,生の時系列や分類モデルの潜時空間で単純な修正を行う。
2つの公開データセットの時系列分類において、1%から15%の大幅な改善が観察された。
- 参考スコア(独自算出の注目度): 7.8379910349669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Labeling time series data is an expensive task because of domain expertise
and dynamic nature of the data. Hence, we often have to deal with limited
labeled data settings. Data augmentation techniques have been successfully
deployed in domains like computer vision to exploit the use of existing labeled
data. We adapt one of the most commonly used technique called MixUp, in the
time series domain. Our proposed, MixUp++ and LatentMixUp++, use simple
modifications to perform interpolation in raw time series and classification
model's latent space, respectively. We also extend these methods with
semi-supervised learning to exploit unlabeled data. We observe significant
improvements of 1\% - 15\% on time series classification on two public
datasets, for both low labeled data as well as high labeled data regimes, with
LatentMixUp++.
- Abstract(参考訳): 時系列データのラベル付けは、ドメインの専門知識とデータの動的な性質のため、高価な作業である。
したがって、ラベル付きデータ設定の制限に対処する必要がしばしばあります。
データ拡張技術は、既存のラベル付きデータの利用を活用すべく、コンピュータビジョンのようなドメインにうまくデプロイされている。
時系列ドメインでは、MixUpと呼ばれる最も一般的なテクニックの1つを適用します。
提案する MixUp++ と LatentMixUp++ は,それぞれ生の時系列と分類モデルの潜時空間で補間を行うため,簡単な修正を行う。
また、これらの手法を半教師付き学習で拡張し、ラベルのないデータを活用する。
latentmixup++を用いた2つの公開データセットの時系列分類において,低ラベルデータと高ラベルデータレジームの両方に対して,1\%~15\%の大幅な改善が見られた。
関連論文リスト
- Dataset Condensation for Time Series Classification via Dual Domain Matching [12.317728375957717]
本研究では,textittextbfTime textittextbfSeries textittextbfClassificationをDual Domain Matching経由で生成する新しいフレームワークであるtextittextbfCondensationを提案する。
提案するフレームワークは,時間領域と周波数領域の両方のサロゲート目的にマッチする凝縮データセットを生成することを目的としている。
論文 参考訳(メタデータ) (2024-03-12T02:05:06Z) - Rethinking Pre-Training in Tabular Data: A Neighborhood Embedding Perspective [71.45945607871715]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
中心となる考え方は、データインスタンスを共有機能空間に埋め込むことで、各インスタンスは、近隣の固定数とそのラベルまでの距離で表現される。
101データセットの大規模な実験は、微調整の有無にかかわらず、分類タスクと回帰タスクの両方においてTabPTMの有効性を確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - Label Name is Mantra: Unifying Point Cloud Segmentation across
Heterogeneous Datasets [17.503843467554592]
本稿では,異なるラベル集合を持つ異種データセットからの学習を支援する原理的アプローチを提案する。
我々の考えは、学習済みの言語モデルを用いて、ラベル名を用いて離散ラベルを連続的な潜在空間に埋め込むことである。
私たちのモデルは最先端の技術を大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-03-19T06:14:22Z) - Semi-unsupervised Learning for Time Series Classification [1.8811803364757567]
時系列はユビキタスで、本質的に分析が困難で、最終的にラベルやクラスタになる。
時系列データを分類するための半教師なし学習のための深いガウス混合モデルSuSL4TSを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:59:38Z) - Learning Semantic Segmentation from Multiple Datasets with Label Shifts [101.24334184653355]
本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
論文 参考訳(メタデータ) (2022-02-28T18:55:19Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - MixText: Linguistically-Informed Interpolation of Hidden Space for
Semi-Supervised Text Classification [68.15015032551214]
MixTextはテキスト分類のための半教師付き学習手法である。
TMixは、隠れた空間でテキストを補間することで、大量の拡張トレーニングサンプルを生成する。
我々は、ラベルなしデータの低エントロピーラベルを推測するために、最近のデータ拡張の進歩を活用している。
論文 参考訳(メタデータ) (2020-04-25T21:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。