論文の概要: Model Selection with a Shapelet-based Distance Measure for Multi-source Transfer Learning in Time Series Classification
- arxiv url: http://arxiv.org/abs/2409.20005v1
- Date: Mon, 30 Sep 2024 06:57:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 16:18:02.333961
- Title: Model Selection with a Shapelet-based Distance Measure for Multi-source Transfer Learning in Time Series Classification
- Title(参考訳): 時系列分類におけるマルチソース変換学習のためのシェープレットに基づく距離測定を用いたモデル選択
- Authors: Jiseok Lee, Brian Kenji Iwana,
- Abstract要約: 時系列分類のための転送学習に複数のデータセットを選択し,利用する新しい手法を提案する。
提案手法は,ニューラルネットワークを事前学習するための1つのソースデータセットとして,複数のデータセットを組み合わせる。
時系列データセットにおける時間畳み込みニューラルネットワーク(CNN)の性能向上が可能であることを示す。
- 参考スコア(独自算出の注目度): 6.875312133832079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is a common practice that alleviates the need for extensive data to train neural networks. It is performed by pre-training a model using a source dataset and fine-tuning it for a target task. However, not every source dataset is appropriate for each target dataset, especially for time series. In this paper, we propose a novel method of selecting and using multiple datasets for transfer learning for time series classification. Specifically, our method combines multiple datasets as one source dataset for pre-training neural networks. Furthermore, for selecting multiple sources, our method measures the transferability of datasets based on shapelet discovery for effective source selection. While traditional transferability measures require considerable time for pre-training all the possible sources for source selection of each possible architecture, our method can be repeatedly used for every possible architecture with a single simple computation. Using the proposed method, we demonstrate that it is possible to increase the performance of temporal convolutional neural networks (CNN) on time series datasets.
- Abstract(参考訳): トランスファーラーニングは、ニューラルネットワークをトレーニングするための広範なデータの必要性を軽減する一般的なプラクティスである。
ソースデータセットを使用してモデルを事前トレーニングし、ターゲットタスクのために微調整する。
しかしながら、すべてのソースデータセットがターゲットデータセット、特に時系列に適しているわけではない。
本稿では,時系列分類のための転送学習のための複数のデータセットの選択と利用方法を提案する。
具体的には、ニューラルネットワークを事前学習するための複数のデータセットを1つのソースデータセットとして組み合わせる。
さらに,複数のソースを選択するために,シェープレット発見に基づくデータセットの転送可能性を測定し,効率的なソース選択を行う。
従来のトランスファービリティ対策では,可能な各アーキテクチャのソース選択に必要なすべてのソースを事前学習するのにかなりの時間を要するが,本手法は単一の単純な計算で,可能なすべてのアーキテクチャに対して繰り返し使用することができる。
提案手法を用いて,時系列データセット上での時間畳み込みニューラルネットワーク(CNN)の性能向上が可能であることを示す。
関連論文リスト
- BeST -- A Novel Source Selection Metric for Transfer Learning [35.32994166809785]
与えられたタスクに対して最も転送可能なソースを特定するための新しいタスク類似度指標(BeST)を開発する。
提案手法は,多数のソースモデルを選択することで,転送学習に多大な費用を費やすことができる。
論文 参考訳(メタデータ) (2025-01-19T03:58:05Z) - Swift Cross-Dataset Pruning: Enhancing Fine-Tuning Efficiency in Natural Language Understanding [2.379669478864599]
現在の微調整のためのクロスデータセットプルーニング技術は、しばしば計算に高価なサンプルランキングプロセスに依存している。
我々は,TF-IDF埋め込みと幾何中央値を用いたSwift Cross-Dataset Pruning (SCDP)を提案する。
6つの多様なデータセットに対する実験結果から,様々なタスクやスケールにまたがる手法の有効性が示された。
論文 参考訳(メタデータ) (2025-01-05T03:52:04Z) - Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Toward a Foundation Model for Time Series Data [34.1973242428317]
基礎モデルは、大規模で多様なデータセットに基づいてトレーニングされた機械学習モデルである。
複数のドメインのラベルのないサンプルを活用することで,効率的な時系列基礎モデルを構築する。
論文 参考訳(メタデータ) (2023-10-05T21:44:50Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Towards General and Efficient Active Learning [20.888364610175987]
アクティブラーニングは、限られたアノテーション予算を利用するために最も有益なサンプルを選択することを目的としている。
本稿では,新しい汎用能動学習法(GEAL)を提案する。
提案手法は,同一モデルの単一パス推定を用いて,異なるデータセット上でデータ選択処理を行うことができる。
論文 参考訳(メタデータ) (2021-12-15T08:35:28Z) - XMixup: Efficient Transfer Learning with Auxiliary Samples by
Cross-domain Mixup [60.07531696857743]
クロスドメイン・ミックスアップ(XMixup)は、深層移動学習のためのマルチタスクパラダイムを改善する。
XMixupはソースデータセットから補助サンプルを選択し、単純なミックスアップ戦略を通じてトレーニングサンプルを拡張する。
実験の結果、XMixupは平均で1.9%精度が向上した。
論文 参考訳(メタデータ) (2020-07-20T16:42:29Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。