論文の概要: Co-eye: A Multi-resolution Symbolic Representation to TimeSeries
Diversified Ensemble Classification
- arxiv url: http://arxiv.org/abs/2004.06668v2
- Date: Wed, 15 Apr 2020 10:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:06:44.735129
- Title: Co-eye: A Multi-resolution Symbolic Representation to TimeSeries
Diversified Ensemble Classification
- Title(参考訳): Co-eye: TimeSeries Diversified Ensemble 分類のためのマルチレゾリューション記号表現
- Authors: Zahraa S. Abdallah, Mohamed Medhat Gaber
- Abstract要約: 時系列分類(TSC)は、ここ数年で多くの研究者を惹きつけた課題である。
TSCの主な課題の1つは、時系列データが生まれる領域の多様性である。
本稿では,自然に着想を得た手法を用いて,TSCの多様性問題に対処する新しい分類手法を提案する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series classification (TSC) is a challenging task that attracted many
researchers in the last few years. One main challenge in TSC is the diversity
of domains where time series data come from. Thus, there is no "one model that
fits all" in TSC. Some algorithms are very accurate in classifying a specific
type of time series when the whole series is considered, while some only target
the existence/non-existence of specific patterns/shapelets. Yet other
techniques focus on the frequency of occurrences of discriminating
patterns/features. This paper presents a new classification technique that
addresses the inherent diversity problem in TSC using a nature-inspired method.
The technique is stimulated by how flies look at the world through "compound
eyes" that are made up of thousands of lenses, called ommatidia. Each
ommatidium is an eye with its own lens, and thousands of them together create a
broad field of vision. The developed technique similarly uses different lenses
and representations to look at the time series, and then combines them for
broader visibility. These lenses have been created through
hyper-parameterisation of symbolic representations (Piecewise Aggregate and
Fourier approximations). The algorithm builds a random forest for each lens,
then performs soft dynamic voting for classifying new instances using the most
confident eyes, i.e, forests. We evaluate the new technique, coined Co-eye,
using the recently released extended version of UCR archive, containing more
than 100 datasets across a wide range of domains. The results show the benefits
of bringing together different perspectives reflecting on the accuracy and
robustness of Co-eye in comparison to other state-of-the-art techniques.
- Abstract(参考訳): 時系列分類(TSC)は、ここ数年で多くの研究者を惹きつけた課題である。
TSCの主な課題の1つは、時系列データが生まれる領域の多様性である。
したがって、tscには「すべてに適合する1つのモデル」は存在しない。
一部のアルゴリズムは、シリーズ全体を考える際に特定の種類の時系列を分類するのに非常に正確であるが、特定のパターン/シェープレットの存在/存在しないことのみをターゲットとするアルゴリズムもある。
しかし、他の技法はパターンや特徴を識別する頻度に焦点を当てている。
本稿では,自然に着想を得た手法を用いて,TSCの多様性問題に対処する新しい分類手法を提案する。
この技術は、ハエが何千ものレンズ、オムマティディア(ommatidia)でできている「コンパウンドアイ(compound eyes)」を通して世界を見る方法によって刺激される。
それぞれのオムマチジウムは独自のレンズを持つ眼であり、何千ものオムマチジウムが共に広い視野を形成している。
開発された技術は同様に、異なるレンズと表現を使って時系列を観察し、それらを組み合わせてより広い視認性を実現する。
これらのレンズは記号表現の超パラメトリゼーション(Piecewise Aggregate and Fourier approximations)によって作成されている。
アルゴリズムは各レンズにランダムなフォレストを構築し、最も自信のある目、すなわちフォレストを使って新しいインスタンスを分類するためにソフトな動的投票を行う。
我々は、最近リリースされたUCRアーカイブの拡張版を使用して、Co-eyeと呼ばれる新しいテクニックを評価し、幅広いドメインに100以上のデータセットを含む。
その結果、他の最先端技術と比較して、コアイの正確性と堅牢性に反映した異なる視点をまとめることの利点が示された。
関連論文リスト
- Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Concept Drift and Long-Tailed Distribution in Fine-Grained Visual Categorization: Benchmark and Method [84.68818879525568]
コンセプションドリフトとLong-Tailed Distributionデータセットを提案する。
インスタンスの特徴は時間によって異なり、長い尾の分布を示す傾向がある。
本稿ではCDLTに関連する学習課題に対処する機能組換えフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T12:42:45Z) - Time Series as Images: Vision Transformer for Irregularly Sampled Time
Series [32.99466250557855]
本稿では,不規則なサンプル時系列を線グラフ画像に変換することによって,新しい視点を提案する。
次に、画像分類と同様に、時系列分類に強力な事前学習型視覚変換器を利用する。
注目すべきは、その単純さにもかかわらず、私たちのアプローチは、いくつかの一般的な医療および人間の活動データセットに関する最先端の特殊アルゴリズムよりも優れていることです。
論文 参考訳(メタデータ) (2023-03-01T22:42:44Z) - Domain Generalization via Shuffled Style Assembly for Face Anti-Spoofing [69.80851569594924]
FAS(Generalizable Face Anti-Spoofing)は注目されている。
この作業では、完全な表現をコンテンツとスタイルに分けます。
Shuffled Style Assembly Network (SSAN) は、異なるコンテンツやスタイルの特徴を抽出し、再組み立てするために提案されている。
論文 参考訳(メタデータ) (2022-03-10T12:44:05Z) - A Compositional Feature Embedding and Similarity Metric for
Ultra-Fine-Grained Visual Categorization [16.843126268445726]
きめ細かい視覚分類(FGVC)は、クラス間の差異が小さいオブジェクトを分類することを目的としている。
本稿では,超微細な視覚分類のための新しい構成的特徴埋め込みと類似度指標(CECS)を提案する。
最近のベンチマーク手法を用いた2つの超FGVCデータセットと1つのFGVCデータセットの実験結果から,提案手法が最先端性能を実現することを一貫して示している。
論文 参考訳(メタデータ) (2021-09-25T15:05:25Z) - Multi-Faceted Representation Learning with Hybrid Architecture for Time
Series Classification [16.64345034889185]
SARCoN(Self-Attentive Recurrent Convolutional Networks)と呼ばれるハイブリッドニューラルネットワークを提案する。
SARCoNは、長期記憶ネットワークと自己拡張機構と完全な畳み込みネットワークの合成である。
我々の研究は、時系列分類の理解を深める新しいアングルを提供し、提案したモデルを現実世界のアプリケーションに最適な選択肢とみなす。
論文 参考訳(メタデータ) (2020-12-21T16:42:07Z) - Interpretable Time Series Classification using Linear Models and
Multi-resolution Multi-domain Symbolic Representations [6.6147550436077776]
我々は,現在のアプローチにおけるギャップに対処する新しい時系列分類アルゴリズムを提案する。
提案手法は,時系列の記号表現,効率的なシーケンスマイニングアルゴリズム,線形分類モデルに基づく。
我々のモデルは深層学習モデルと同じくらい正確だが、実行時間やメモリに関してより効率的であり、可変長の時系列を扱うことができ、元の時系列における識別的象徴的特徴を強調することで解釈できる。
論文 参考訳(メタデータ) (2020-05-31T15:32:08Z) - Domain Siamese CNNs for Sparse Multispectral Disparity Estimation [15.065764374430783]
そこで本研究では,異なるスペクトルの画像間の不均一性を推定できる新しいCNNアーキテクチャを提案する。
LITIV 2014およびLITIV 2018データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-30T20:29:59Z) - Extending and Analyzing Self-Supervised Learning Across Domains [50.13326427158233]
近年,自己指導型表現学習が目覚ましい成果を上げている。
実験は主にImageNetや他の同様の大規模なインターネット画像データセット上で行われる。
我々は、前例のない様々なドメインで、いくつかのポピュラーな手法を実験した。
論文 参考訳(メタデータ) (2020-04-24T21:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。