論文の概要: Interpretable Time-series Classification on Few-shot Samples
- arxiv url: http://arxiv.org/abs/2006.02031v2
- Date: Thu, 2 Jul 2020 06:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:17:25.224128
- Title: Interpretable Time-series Classification on Few-shot Samples
- Title(参考訳): 極小標本の解釈可能な時系列分類
- Authors: Wensi Tang, Lu Liu, Guodong Long
- Abstract要約: 本稿では,少数の時系列分類のための解釈可能なニューラルネットワーク,すなわちtextitDual Prototypeal Shapelet Networks (DPSN)を提案する。
DPSNは, 二つの粒度からモデルを解釈する: 1) 代表時系列サンプルを用いた大域的概要, 2) 識別型シェープレットを用いた局所的ハイライト。
我々は、公開ベンチマークデータセットから18個のショットTSCデータセットを抽出し、ベースラインとの比較により提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 27.05851877375113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent few-shot learning works focus on training a model with prior
meta-knowledge to fast adapt to new tasks with unseen classes and samples.
However, conventional time-series classification algorithms fail to tackle the
few-shot scenario. Existing few-shot learning methods are proposed to tackle
image or text data, and most of them are neural-based models that lack
interpretability. This paper proposes an interpretable neural-based framework,
namely \textit{Dual Prototypical Shapelet Networks (DPSN)} for few-shot
time-series classification, which not only trains a neural network-based model
but also interprets the model from dual granularity: 1) global overview using
representative time series samples, and 2) local highlights using
discriminative shapelets. In particular, the generated dual prototypical
shapelets consist of representative samples that can mostly demonstrate the
overall shapes of all samples in the class and discriminative partial-length
shapelets that can be used to distinguish different classes. We have derived 18
few-shot TSC datasets from public benchmark datasets and evaluated the proposed
method by comparing with baselines. The DPSN framework outperforms
state-of-the-art time-series classification methods, especially when training
with limited amounts of data. Several case studies have been given to
demonstrate the interpret ability of our model.
- Abstract(参考訳): 最近のマイナショット学習は、クラスやサンプルのない新しいタスクに素早く適応するために、事前のメタ知識を持つモデルをトレーニングすることに焦点を当てている。
しかし,従来の時系列分類アルゴリズムでは,このシナリオに対処できない。
既存の数発の学習手法は、画像やテキストデータに取り組むために提案されており、その多くは、解釈性に欠けるニューラルベースモデルである。
本稿では,ニューラルネットワークに基づくモデルを学習するだけでなく,そのモデルを双対粒度から解釈する,数発時系列分類のための解釈可能なニューラルベースフレームワークである \textit{dual prototypical shapelet networks (dpsn)"を提案する。
1)代表時系列サンプルを用いたグローバル概観,及び
2)識別型シェープレットを用いた局所ハイライト。
特に、生成された二重原型形状体は、クラス内の全てのサンプルの全体形状を主に示す代表サンプルと、異なるクラスを区別するために使用できる識別的部分長形状体から構成される。
我々は,公開ベンチマークデータセットから18個の少数ショットtscデータセットを導出し,ベースラインとの比較により提案手法を評価した。
DPSNフレームワークは、特に限られた量のデータによるトレーニングにおいて、最先端の時系列分類方法より優れている。
モデルの解釈能力を示すためにいくつかの事例研究がなされている。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - Liberating Seen Classes: Boosting Few-Shot and Zero-Shot Text Classification via Anchor Generation and Classification Reframing [38.84431954053434]
短いショットとゼロショットのテキスト分類は、ラベル付きサンプルやラベル付きサンプルが全くない新しいクラスからのサンプルを認識することを目的としている。
少数ショットとゼロショットのテキスト分類のためのシンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-05-06T15:38:32Z) - Dual-View Data Hallucination with Semantic Relation Guidance for Few-Shot Image Recognition [49.26065739704278]
本稿では、意味的関係を利用して、画像認識のための二重視点データ幻覚を導出するフレームワークを提案する。
インスタンスビューデータ幻覚モジュールは、新規クラスの各サンプルを幻覚して新しいデータを生成する。
プロトタイプビューデータ幻覚モジュールは、意味認識尺度を利用して、新しいクラスのプロトタイプを推定する。
論文 参考訳(メタデータ) (2024-01-13T12:32:29Z) - Generating Representative Samples for Few-Shot Classification [8.62483598990205]
クラスごとの視覚的なサンプルで新しいカテゴリを学習することを目的としている。
データ不足によってクラス表現がバイアスを受ける場合が少なくない。
条件付き変分オートエンコーダモデルを用いて,意味的埋め込みに基づく視覚サンプルを生成する。
論文 参考訳(メタデータ) (2022-05-05T20:58:33Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。