論文の概要、ライセンス

# (参考訳) MultiRocket: 時系列分類における畳み込み出力の効率的な要約統計 [全文訳有]

MultiRocket: Effective summary statistics for convolutional outputs in time series classification ( http://arxiv.org/abs/2102.00457v1 )

ライセンス: CC BY 4.0
Chang Wei Tan and Angus Dempster and Christoph Bergmeir and Geoffrey I. Webb(参考訳) RocketとMiniRocketは、時系列分類において最速の2つの手法であるが、どちらも現在の最も正確な方法(HIVE-COTEとその変種)よりも若干精度が低い。 本研究では,MiniRocket(およびRocket)の精度を大幅に向上させ,さらに計算コストを掛けて,変換によって生成された機能のセットを拡大することで,マルチロケット(MiniRocket with Multiple Features)をUCRアーカイブのデータセット上で最も正確なメソッドとして,全体として実現することが可能であることを示した。

Rocket and MiniRocket, while two of the fastest methods for time series classification, are both somewhat less accurate than the current most accurate methods (namely, HIVE-COTE and its variants). We show that it is possible to significantly improve the accuracy of MiniRocket (and Rocket), with some additional computational expense, by expanding the set of features produced by the transform, making MultiRocket (for MiniRocket with Multiple Features) overall the single most accurate method on the datasets in the UCR archive, while still being orders of magnitude faster than any algorithm of comparable accuracy other than its precursors
公開日: Sun, 31 Jan 2021 14:04:10 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Noname manuscript No. (will be inserted by the editor) 無名の写本No。 (編集者が挿入する) 0.67
MultiRocket: Effective summary statistics for convolutional outputs in time series classification MultiRocket: 時系列分類における畳み込み出力の効率的な要約統計 0.81
Chang Wei Tan · Angus Dempster · Christoph Bergmeir · Geoffrey I. Webb Chang Wei Tan ・ Angus Dempster ・ Christoph Bergmeir ・ Geoffrey I. Webb 0.81
1 2 0 2 n a J 1 2 0 2 n a J 0.85
1 3 ] G L . 1 3 ] G L。 0.81
s c [ 1 v 7 5 4 0 0 sc [ 1 v 7 5 4 0 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Received: date / Accepted: date 受信:日付/受理:日付。 0.75
Abstract Rocket and MiniRocket, while two of the fastest methods for time series classification, are both somewhat less accurate than the current most accurate methods (namely, HIVE-COTE and its variants). Abstract RocketとMiniRocketは、時系列分類において最速の2つの手法であるが、どちらも現在の最も正確な方法(HIVE-COTEとその変種)よりも若干精度が低い。 0.80
We show that it is possible to significantly improve the accuracy of MiniRocket (and Rocket), with some additional computational expense, by expanding the set of features produced by the transform, making MultiRocket (for MiniRocket with Multiple Features) overall the single most accurate method on the datasets in the UCR archive, while still being orders of magnitude faster than any algorithm of comparable accuracy other than its precursors. 本研究では,MiniRocket(およびRocket)の精度を大幅に向上させ,さらに計算コストを掛けて,変換によって生成された機能のセットを拡大することで,マルチロケット(MiniRocket with Multiple Features)を,UCRアーカイブのデータセット上で最も正確な方法として全体として実現することができることを示した。 0.78
Keywords Time series classification · MiniRocket · Rocket キーワード 時系列分類 · minirocket · rocket 0.86
1 Introduction For many of the most accurate methods for time series classification (TSC), such as HIVE-COTE, high classification accuracy comes at the expense of high computational complexity and limited scalability. はじめに HIVE-COTEなど、時系列分類(TSC)の最も正確な方法の多くでは、高い分類精度は、高い計算複雑さと限られたスケーラビリティを犠牲にします。 0.65
Rocket and MiniRocket achieve state-of-the-art (SOTA) accuracy with a fraction of the computational expense of any other method of similar accuracy (Dempster et al., 2020a,b). RocketとMiniRocketは、同様の精度の他の方法(Dempster et al., 2020a,b)の計算コストのごく一部で最先端(SOTA)の精度を達成する。 0.79
However, Rocket and MiniRocket are somewhat less accurate than the most recent variants of HIVE-COTE (Bagnall et al., 2020)—including HC-CIF (Middlehurst et al., 2020a), and HC-TDE (Middlehurst et al., 2020b)—which are the most accurate methods on the datasets in the UCR archive. しかし、RocketとMiniRocketは最新のHIVE-COTE(Bagnall et al., 2020a)とHC-CIF(Middlehurst et al., 2020a)、HC-TDE(Middlehurst et al., 2020b)などよりやや正確ではない。
訳抜け防止モード: しかし、RocketとMiniRocketは、最新のHIVE-COTE(Bagnall et al .)よりも若干精度が低い。 HC - CIF (Middlehurst et al ., 2020a)を含む。 HC - TDE (Middlehurst et al ., 2020b) は、UCRアーカイブのデータセット上で最も正確な方法である。
0.82
Chang Wei Tan · Angus Dempster · Christoph Bergmeir · Geoffrey I. Webb Faculty of Information Technology 25 Exhibition Walk Monash University, Melbourne VIC 3800, Australia E-mail: chang.tan@monash.edu ,angus.dempster1@mon ash.edu,christoph.be rgmeir@monash.edu, geoff.webb@monash.edu Chang Wei Tan · Angus Dempster · Christoph Bergmeir · Geoffrey I. Webb Faculty of Information Technology 25 Exhibition Walk Monash University, Melbourne VIC 3800, Australia E-mail: chang.tan@monash.edu ,angus.dempster1@mon ash.edu,christoph.be rgmeir@monash.edu, geoff.webb@monash.ed u 0.82
英語(論文から抽出)日本語訳スコア
2 Chang Wei Tan et al. 2 Chang Wei Tanら。 0.73
Fig. 1: Average rank of our proposed algorithm, MultiRocket with the default configuration – using MiniRocket kernels, feature id f =202 and n=10,000 features (matching MiniRocket), in terms of accuracy against other SOTA methods over 30 resamples of 109 datasets from the UCR archive. フィギュア。 提案したアルゴリズムの平均ランクであるMultiRocketのデフォルト設定 – UCRアーカイブから109データセットの30以上のSOTAメソッドに対して、MiniRocketカーネル、特徴id f=202、n=10,000の機能(MiniRocketにマッチする)を使用する。 0.59
We show that it is possible to significantly improve the accuracy of both Rocket and MiniRocket, with some additional computational expense, by expanding the set of features computed as part of the transform. トランスフォーメーションの一部として計算された機能のセットを拡張することで、ロケットとミニロケットの両方の精度を多少の計算コストで大幅に向上させることができることを示す。 0.71
We call this method MultiRocket (for MiniRocket with Multiple Features). この手法を MultiRocket (MultiRocket with Multiple Features) と呼ぶ。 0.72
Like Rocket and MiniRocket, MultiRocket transforms input time series using a large number of convolutional kernels, and uses the transformed features to train a linear classifier. rocketやminirocketのように、multirocketは多数の畳み込みカーネルを使って入力時系列を変換し、変換された特徴を使って線形分類器を訓練する。 0.68
The main difference between MultiRocket and MiniRocket or Rocket is in the features extracted from the convolution output. MultiRocketとMiniRocketまたはRocketの主な違いは、畳み込み出力から抽出された機能にあります。 0.83
Rocket applies PPV (for the ‘proportion of positive values’) and Global Max Pooling (Max) while MiniRocket only applies PPV. RocketはPPV(“肯定的な価値の分布”)とGlobal Max Pooling(Max)を、MiniRocketはPPVのみを適用する。 0.76
MultiRocket expands on this set of feature operations by adding a range of further time series summary features. MultiRocketはこの一連の機能操作を拡張し、追加の時系列サマリ機能を追加している。 0.71
Expanding the set of features computed by the transform makes MultiRocket the single most accurate method, on average, on the datasets in the UCR archive, as illustrated in Figure 1. 変換によって計算された機能のセットを拡張すれば、図1に示すように、UCRアーカイブのデータセットにおいて、MultiRocketは平均して最も正確な方法になります。 0.70
When performing a pairwise statistical test, MultiRocket is significantly more accurate than Rocket or MiniRocket and more accurate even than the most recent variants of HIVE-COTE (namely HC-TDE), as shown in Figures 2a and 2b. 比較統計テストを行う場合、MultiRocketはRocketやMiniRocketよりもはるかに正確であり、図2aと2bに示すように、HIVE-COTE(HC-TDE)の最新の変種よりも正確である。 0.73
(Note, however, that HC-TDE is still considerably more accurate than MultiRocket on certain datasets, such as SemgHandMovementCh2) . (ただし、HC-TDEはSemgHandMovementCh2) のような特定のデータセットでMultiRocketよりもかなり正確である。 0.75
By default, MultiRocket uses PPV plus a randomly-selected feature (from a set of 5 candidate features) and, like MiniRocket, produces 10,000 features per time series. デフォルトでは、MultiRocketはPPVとランダムに選択された機能(5つの候補機能から)を使用し、MiniRocketと同様、時系列ごとに1万機能を生成する。 0.67
However, we treat the feature set as a hyperparameter, and a huge number of potential fixed and random feature combinations is possible. しかし、私たちは特徴セットをハイパーパラメータとして扱い、多数の潜在的な固定およびランダムな特徴の組み合わせが可能です。 0.79
We show that several random and fixed feature combinations also produce similar accuracy to the default configuration and that, in fact, it is possible to achieve even higher accuracy by also increasing the number of features ((cid:29) 10,000) per time series. 複数のランダム機能と固定機能の組み合わせは、デフォルト設定と同等の精度をも生み出しており、実際、1時系列あたりの機能数(cid:29)を増加させることで、さらに高い精度を達成することが可能である。 0.77
The use of additional features in MultiRocket increases the computational expense of the transform over MiniRocket. MultiRocketで追加機能を使用することで、MiniRocket上の変換の計算コストが増大する。 0.77
Figure 3 compares the total compute time (training and testing) for MiniRocket and several variants of MultiRocket over all 109 datasets from the UCR archive (timings are averages 図3は、MiniRocketの合計計算時間(トレーニングとテスト)と、UCRアーカイブの109データセット(タイミングは平均)に対するMultiRocketのいくつかのバリエーションを比較します。 0.78
12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFHC-TD EMultiRocket 12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFHC-TD EMultiRocket 0.06
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
3 (a) (b) Fig. 3 (a) (b) フィギュア。 0.74
2: Pairwise comparison of MultiRocket with (a) HC-TDE and (b) MiniRocket, in terms of average accuracy over 30 resamples of 109 datasets from the UCR archive. 2: UCRアーカイブからの109データセットの30リサンプルの平均精度の観点から、(a)HC-TDEおよび(b)MiniRocketとMultiRocketを対比します。 0.82
The largest difference between HC-TDE and MultiRocket is on the SemgHandMovementCh2 dataset. HC-TDEとMultiRocketの最大の違いは、SemgHandMovementCh2データセットにある。 0.75
Fig. 3: Total compute time of MiniRocket and variants of MultiRocket (explained in later sections). フィギュア。 3:MiniRocketの総計算時間およびMultiRocketの変形(後のセクションで説明される)。 0.65
Compute times are averaged over 30 resamples of 109 UCR datasets, and run on a cluster using AMD EPYC 7702 CPU with 32 threads. 計算時間は平均で109のUCRデータセットの30以上のサンプルを持ち、32スレッドのAMD EPYC 7702 CPUを使用してクラスタ上で実行される。 0.71
Figure better seen with colors. 図は色でよく見えます。 0.66
over 30 resamples of each dataset, and run on a cluster using AMD EPYC 7702 CPUs with 32 threads). 各データセットの30以上の再サンプルと、32スレッドのAMD EPYC 7702 CPUを使用してクラスタ上で実行される)。 0.77
Although MultiRocket is approximately 10 times slower than MiniRocket, the total compute time for all 109 UCR datasets of 14 minutes using 32 threads on AMD EPYC 7702 CPUs is still orders of magnitude faster than most SOTA TSC algorithms. MultiRocketはMiniRocketの約10倍遅いが、AMD EPYC 7702 CPU上で32スレッドを使用して14分のすべての109 UCRデータセットの合計計算時間は、ほとんどのSOTA TSCアルゴリズムよりもはるかに高速である。 0.85
0.00.20.40.60.81.0HC -TDE0.00.20.40.60.81 .0MultiRocketHC-TDE is better hereMultiRocket is better hereSemgHandMovement Ch2 (-0.205)MultiRocket vs HC-TDE 57/6/460.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0MultiRo cketMiniRocket is better hereMultiRocket is better hereMultiRocket vs MiniRocket 75/4/301011001011021 03104MultiRocket variants102101100101 102103104MiniRocket, Total: 3 mins10x slower than MiniRocket100x slower than MiniRocketTotal compute time, Secondsrocket_202_20 k: 133minsminirocket_30 4_30k: 35minsminirocket_202 _20k: 26minsMultiRocket: 14mins 0.00.20.40.60.81.0HC -TDE0.00.20.40.60.81 .0MultiRocketHC-TDE is better hereMultiRocket is better hereSemgHandMovement Ch2 (-0.205)MultiRocket vs HC-TDE 57/6/460.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0MultiRo cketMiniRocket is better hereMultiRocket is better hereMultiRocket vs MiniRocket 75/4/301011001011021 03104MultiRocket variants102101100101 102103104MiniRocket, Total: 3 mins10x slower than MiniRocket100x slower than MiniRocketTotal compute time, Secondsrocket_202_20 k: 133minsminirocket_30 4_30k: 35minsminirocket_202 _20k: 26minsMultiRocket: 14mins 0.39
英語(論文から抽出)日本語訳スコア
4 Chang Wei Tan et al. 4 Chang Wei Tanら。 0.73
The rest of the paper is organised as follows. 残りの論文は以下の通り整理される。 0.65
In Section 2, we review relevant existing work. セクション2では、関連する既存の作業をレビューします。 0.52
In Section 3, we describe MultiRocket in detail. 第3節では、MultiRocketについて詳述する。 0.71
In Section 4, we present our experimental results. セクション4では、実験結果を紹介します。 0.73
2 Related work 2.1 State of the art 2関連作品 2.1 美術の現状 0.79
The goal of TSC is to learn discriminating patterns that can be used to group time series into predefined categories (classes) (Bagnall et al., 2017). TSCの目標は、時系列をあらかじめ定義されたカテゴリ(クラス)に分類するために使用できる識別パターンを学ぶことです(Bagnall et al., 2017)。 0.80
The current SOTA TSC algorithms include HIVE-COTE and its variants (Bagnall et al., 2020; Middlehurst et al., 2020a,b), TS-CHIEF (Shifaz et al., 2019), MiniRocket (Dempster et al., 2020b), Rocket (Dempster et al., 2020a) and InceptionTime (Fawaz et al., 2019b). 現在のSOTA TSCアルゴリズムには、HIVE-COTEとその変種(Bagnall et al., 2020; Middlehurst et al., 2020a,b)、TS-CHIEF (Shifaz et al., 2019)、MiniRocket (Dempster et al., 2020b)、Rocket (Dempster et al., 2020a)、InceptionTime (Fawaz et al., 2019b)が含まれる。 0.90
With some exceptions (namely, Rocket and MiniRocket), most SOTA TSC methods are burdened with high computational complexity. いくつかの例外(RocketとMiniRocket)では、ほとんどのSOTA TSCメソッドは計算の複雑さに悩まされている。 0.67
InceptionTime is the most accurate deep learning model for TSC (Fawaz et al., 2019b). InceptionTime は TSC (Fawaz et al., 2019b) の最も正確なディープラーニングモデルである。 0.84
It is an ensemble of 5 Inception-based convolutional neural networks. 5つのインセプションに基づく畳み込みニューラルネットワークのアンサンブルである。 0.65
Ensembling reduces the variance of the model, and makes it significantly more accurate compared with other deep learning based TSC models such as the Fully Convolutional Network (FCN) and Residual Network (ResNet) (Fawaz et al., 2019a). Ensemblingはモデルのばらつきを低減し、Fully Convolutional Network (FCN)やResidual Network (ResNet) (Fawaz et al., 2019a)といった他のディープラーニングベースのTSCモデルと比較して、はるかに正確になる。 0.76
TS-CHIEF was first introduced as a scalable TSC algorithm that is not significantly less accurate than HIVE-COTE (Shifaz et al., 2019). TS-CHIEF は HIVE-COTE (Shifaz et al., 2019) よりもはるかに精度が低いスケーラブル TSC アルゴリズムとして最初に導入された。 0.72
It builds on Proximity Forest (Lucas et al., 2019), an ensemble of decision trees using distance measures at each node as the splitting criteria. 近接林(lucas et al., 2019)は、各ノード間の距離測定を分割基準として用いた決定木の集合体である。 0.69
TS-CHIEF improves on Proximity Forest by adding interval and spectral based splitting criteria, allowing the ensemble to capture a wider range of representations. TS-CHIEFは、間隔とスペクトルベースの分割基準を追加することでProximity Forestを改善し、アンサンブルが幅広い表現をキャプチャできるようにします。 0.60
HIVE-COTE is a meta-ensemble that consists of various ensemble classifiers from different time series representation domains (Lines et al., 2016; Bagnall et al., 2020). HIVE-COTEは、異なる時系列表現領域(Lines et al., 2016; Bagnall et al., 2020)の様々なアンサンブル分類子からなるメタアンサンブルです。 0.75
The original HIVE-COTE consists of Elastic Ensemble (EE) (Lines and Bagnall, 2015), Shapelet Transform Ensemble (ST) (Hills et al., 2014), Bag of SFA Symbols (BOSS) Ensemble (Sch¨afer, 2015), Time Series Forest (TSF) (Deng et al., 2013) and Random Interval Forest (RIF) (Lines et al., 2016), each of them being the most accurate classifier in their respective domains. オリジナルのHIVE-COTEは、Elastic Ensemble (EE) (Lines and Bagnall, 2015)、Shapelet Transform Ensemble (ST) (Hills et al., 2014)、Bag of SFA Symbols (BOSS) Ensemble (Sch Aafer, 2015)、Time Series Forest (TSF) (Deng et al., 2013)、Random Interval Forest (RIF) (Lines et al., 2016)で構成され、それぞれがそれぞれのドメインで最も正確な分類器である。 0.86
The authors showed that HIVE-COTE is significantly more accurate than each of its constituent members, and it has stood as a high benchmark for classification accuracy ever since. 著者らは、HIVE-COTEが各構成員よりも大幅に正確であることを示し、以来、分類精度の高いベンチマークとして立っていた。 0.65
Two recently-proposed variants of HIVE-COTE are HC-CIF (Middlehurst et al., 2020a) and HC-TDE (Middlehurst et al., 2020b). HIVE-COTEは、HC-CIF(Middlehurst et al., 2020a)とHC-TDE(Middlehurst et al., 2020b)の2種類が最近提案されている。 0.57
HC-CIF replaces TSF in HIVE-COTE with the Canonical Interval Forest (CIF) classifier, which is significantly more accurate than TSF (Middlehurst et al., 2020a). HC-CIF は HIVE-COTE の TSF を Canonical Interval Forest (CIF) 分類器に置き換えるが、これは TSF (Middlehurst et al., 2020a) よりもかなり正確である。 0.80
TSF identifies key intervals within the time series, uses simple summary statistics to extract features from these intervals and then applies Random Forests to those features. TSFは時系列内の重要な区間を特定し、単純な要約統計を用いてこれらの区間から特徴を抽出し、その特徴にランダムフォレストを適用する。 0.66
CIF extends TSF by using catch22 features (Lubba et al., 2019) to- CIF は catch22 機能 (Lubba et al., 2019) を使って TSF を拡張します。 0.74
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
5 gether with the original TSF features (catch22 is discussed in more detail in Section 2.3). 5 getherはオリジナルのtsf機能(catch22はセクション2.3)でより詳細に議論されている。 0.74
For each time series interval in each tree, CIF randomly samples eight features from the combined catch22 and TSF feature set. 各木の時系列間隔毎に、cif は catch22 と tsf の複合特徴集合から 8 つの特徴をランダムにサンプリングする。 0.73
As shown in Middlehurst et al. Middlehurst et alに示すように。 0.85
(2020a), and explained in more detail in Section 2.3, the catch22 feature set when used with standard classifiers fails to achieve competitive accuracy on the UCI benchmark datasets. (2020a)で説明され、セクション2.3で説明されているように、標準分類器で使用されるときのcatch22機能は、UCIベンチマークデータセットの競合精度を達成できない。 0.60
However, the use of the catch22 feature set within CIF results in a considerable improvement in accuracy (Middlehurst et al., 2020a). しかし、CIF内でのcatch22機能セットの使用により、精度が大幅に向上する(Middlehurst et al., 2020a)。 0.69
We build on this observation and explore the possibility of extending Rocket and MiniRocket with expanded feature sets, including catch22. 我々はこの観測に基づいて、Catch22を含む拡張された機能セットでRocketとMiniRocketを拡張する可能性を探る。 0.63
HC-TDE replaces BOSS with the more accurate Temporal Dictionary Ensemble (TDE) (Middlehurst et al., 2020b). HC-TDEはBOSSをより正確なテンポラル辞書アンサンブル(TDE)に置き換える(Middlehurst et al., 2020b)。 0.80
TDE combines aspects of various earlier dictionary methods and is significantly more accurate than any existing dictionary method. TDEは、様々な初期の辞書方法の側面を組み合わせており、既存の辞書方法よりもはるかに正確です。 0.63
While producing high classification accuracy, most of these methods are not scalable. 高い分類精度を生み出す一方で、これらのメソッドのほとんどはスケーラブルではない。 0.61
Total compute time (training and testing) for the 109 datasets in the UCR archive, using a single CPU thread, is more than a day for CIF, two days for TDE, more than a week for Proximity Forest, and more than two weeks for HIVE-COTE (Middlehurst et al., 2020a,b; Bagnall et al., 2020; Dempster et al., 2020b). UCRアーカイブの109データセットの合計計算時間(トレーニングとテスト)は、単一のCPUスレッドを使用して、CIFで1日以上、TDEで2日、Proximity Forestで1週間以上、HIVE-COTEで2週間以上である(Middlehurst et al., 2020a,b; Bagnall et al., 2020; Dempster et al., 2020b)。 0.76
To put this into context, although not directly comparable due to hardware and software differences and assuming compute time is linear with the number of threads, we estimate a maximum compute time of 7.5 hours (14 minutes × 32 threads) for MultiRocket on a single thread. これをコンテキストに入れるために、ハードウェアとソフトウェアの違いによる直接的な比較はなく、計算時間はスレッド数と線形であると仮定するが、マルチロケットの最大計算時間は1スレッドで7.5時間(14分×32スレッド)と推定する。 0.77
2.2 Rocket and MiniRocket 2.2 ロケットとミニロケット 0.63
Rocket is a significantly more scalable TSC algorithm, matching the accuracy of most SOTA TSC methods (Dempster et al., 2020a), and taking just 2 hours to train and classify the same 109 UCR datasets using a single CPU core (Dempster et al., 2020b). RocketはよりスケーラブルなTSCアルゴリズムであり、ほとんどのSOTA TSCメソッド(Dempster et al., 2020a)の精度と、単一のCPUコア(Dempster et al., 2020b)を使用して同じ109 UCRデータセットをトレーニングおよび分類するのに2時間しかかからない。 0.86
Rocket transforms input time series using 10,000 random convolutional kernels (random in terms of their length, weights, bias, dilation, and padding). ロケットは1万個のランダムな畳み込みカーネル(長さ、重み、バイアス、ダイレーション、パディング)を使用して入力時系列を変換する。 0.66
Rocket then computes PPV and Max from the convolution output, producing 20,000 features per time series. Rocketはコンボリューション出力からPPVとMaxを計算し、時系列毎に20,000の機能を生成する。 0.67
The transformed features are used to train a linear classifier. 変換された特徴は線形分類器の訓練に用いられる。 0.73
The use of dilation and PPV are the key aspects of Rocket in achieving SOTA accuracy. SOTAの精度を達成するためのロケットの重要な側面は、膨張とPPVの使用です。 0.65
MiniRocket is a much faster variant of Rocket. MiniRocketはRocketのはるかに高速なバージョンです。 0.82
It takes less than 10 minutes to train and classify the same 109 UCR datasets using 1 CPU core, while maintaining the same accuracy as Rocket (Dempster et al., 2020b). Rocket(Dempster et al., 2020b)と同じ精度を維持しながら、1CPUコアを使用して、同じ109のUCRデータセットのトレーニングと分類に10分もかからない。 0.83
Unlike Rocket, MiniRocket uses a small, fixed set of kernels and only computes PPV features. Rocketとは異なり、MiniRocketは小さな固定されたカーネルセットを使用し、PPV機能のみを演算する。
訳抜け防止モード: Rocketと違ってMiniRocketは、カーネルの小さな固定セットを使う PPV機能のみを計算します。
0.78
Since MiniRocket has the same accuracy as Rocket and is much faster, Dempster et al. minirocketはロケットと同じ精度で、はるかに高速であるため、dempsterなどだ。 0.69
(2020b) suggest that MiniRocket should be the default variant of Rocket. (2020b)はminirocketがデフォルトのロケットであるべきだと示唆している。 0.64
In this work, we extend MiniRocket with various feature combinations to achieve a new SOTA TSC algorithm that is also scalable. 本研究では,新しいSOTA TSCアルゴリズムを実現するために,MiniRocketを様々な機能の組み合わせで拡張する。 0.77
英語(論文から抽出)日本語訳スコア
6 Chang Wei Tan et al. 6 Chang Wei Tanら。 0.73
2.3 Canonical time series characteristics (catch22) 2.3 標準時系列特性(catch22) 0.81
Catch22 is a set of 22 features for time series analysis that covers a wide range of concepts including basic time series statistics, linear correlations, and entropy (Lubba et al., 2019). Catch22は、基本時系列統計、線形相関、エントロピー(Lubba et al., 2019)を含む幅広い概念をカバーする時系列解析のための22の特徴の集合である。 0.80
It is a subset of the 7658 time series features in the hctsa toolbox (Fulcher and Jones, 2017). これは、hctsaツールボックス(Fulcher and Jones, 2017)の7658時間シリーズのサブセットです。 0.63
The subset of 22 features is formed by selecting features that are useful for TSC with the UCR archive. 22の機能のサブセットは、udrアーカイブでtscに有用な機能を選択することで形成される。 0.77
Features sensitive to the mean and variance were removed (as the majority of the data in the UCR archive have been normalised), as well as features that cannot be calculated on over 80% of the datasets. 平均と分散に敏感な特徴が削除され(UCRアーカイブのデータの大部分が正規化されている)、データセットの80%以上で計算できない機能も削除された。 0.74
Features producing significantly better-than-chance accuracy on the datasets in the UCR archive were retained, and clustered into 22 clusters. UCRアーカイブのデータセットの精度を大幅に向上させる特徴は保持され、22のクラスタにクラスタ化された。 0.66
A single feature from each cluster was selected based on accuracy, computational efficiency, and interpretability. 各クラスタから1つの特徴を、正確性、計算効率、解釈性に基づいて選択した。 0.66
The straightforward way to use catch22 for TSC is to transform the input time series using these features, and pass the transformed features to a classifier (Lubba et al. TSCでCatch22を使用する簡単な方法は、これらの機能を使用して入力時系列を変換し、変換された特徴を分類器(Lubba et al)に渡すことである。 0.65
(2019) used a decision tree in their experiments). (2019年)は実験で決定木を使用しました。 0.74
This approach is fast, but produces relatively poor classification accuracy (Middlehurst et al., 2020a). このアプローチは高速であるが、分類精度は比較的低い(Middlehurst et al., 2020a)。 0.80
However, as Middlehurst et al. しかし、Middlehurstらとして。 0.78
(2020a) showed, the catch22 feature set can be used with TSF to achieve a significantly more accurate TSC algorithm. (2020a) は, TSFを用いてより高精度な TSC アルゴリズムを実現するために, catch22 の機能セットを使用できることを示した。 0.69
3 MultiRocket This section describes MultiRocket in detail. 3マルチロック 本項ではMultiRocketについて詳述する。 0.69
Fundamentally MultiRocket is similar to Rocket (Dempster et al., 2020a) and MiniRocket (Dempster et al., 2020b). 基本的にMultiRocketはRocket(Dempster et al., 2020a)やMiniRocket(Dempster et al., 2020b)に似ている。 0.81
It transforms time series using large numbers of convolutional kernels, computes features from the convolution outputs and trains a linear classifier. 多数の畳み込みカーネルを使用して時系列を変換し、畳み込み出力から特徴を計算し、線形分類器を訓練する。
訳抜け防止モード: 多数の畳み込みカーネルを用いて時系列を変換し、畳み込み出力から特徴を計算する 線形分類器を訓練します
0.74
The main difference between MultiRocket and its predecessors is the features used per kernel. MultiRocketと前任者の主な違いは、カーネルごとに使用される機能です。 0.82
Rocket computes PPV and Max from the convolution output, generating two features per kernel (Dempster et al., 2020a), while MiniRocket only computes one PPV feature per kernel. Rocketはコンボリューション出力からPPVとMaxを計算し、1カーネルあたり2つの機能(Dempster et al., 2020a)を生成し、MiniRocketは1カーネルあたり1つのPPV機能のみを計算します。 0.64
MultiRocket is an extension of its predecessors, computing multiple various other features in addition to PPV. MultiRocketは、PPVに加えて、様々な機能を扱う、前世代の拡張である。 0.76
We show that this simple addition of features boosts the classification power of MiniRocket. この単純な機能追加によってMiniRocketの分類能力が向上することを示す。 0.73
3.1 Convolutional kernels First, we describe the convolutional kernels used in MultiRocket. 3.1 畳み込み核 まず、MultiRocketで使用される畳み込みカーネルについて述べる。 0.65
MultiRocket uses the same fixed set of kernels as used in MiniRocket (Dempster et al., 2020b), producing high classification accuracy and allowing for a highly optimised transform. MultiRocket は MiniRocket (Dempster et al., 2020b) で使われているカーネルと同じ固定セットを使用し、高い分類精度と高度に最適化された変換を実現する。 0.78
It is also possible to use kernels used in Rocket (Dempster et al., 2020a) and this approach also achieves SOTA accuracy. Rocket(Dempster et al., 2020a)で使用されるカーネルを使用することも可能であり、このアプローチはSOTAの精度も達成する。 0.68
However, our experiments show that MiniRocket kernels are faster and give higher classification accuracy than Rocket kernels. しかし,実験の結果,MiniRocketカーネルはRocketカーネルよりも高速で,分類精度が高いことがわかった。 0.71
Besides, MiniRocket was recommended to be the default variant of Rocket (Dempster et al., 2020b). さらに、MiniRocketはRocketのデフォルトのバージョンとして推奨された(Dempster et al., 2020b)。
訳抜け防止モード: さらにMiniRocketも推奨された ロケット(Dempster et al ., 2020b)のデフォルトの派生機となる。
0.81
We refer interested 興味を込めて 0.61
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
7 readers to Dempster et al. 7 dempster et alの読者。 0.80
(2020a) for details of the kernels used in Rocket. (2020a)ロケットで使用されるカーネルの詳細。 0.74
The kernels for MultiRocket are characterised in terms of their length, weights, bias, dilation, and padding: MultiRocketのカーネルは、その長さ、重み、バイアス、拡張、パディングの点で特徴付けられます。 0.64
– Length and weights: As per MiniRocket, MultiRocket uses kernels of length 9, with weights restricted to two values and, in particular, the subset of such kernels where six weights have the value −1, and three weights have the value 2, e.g., W =[−1,−1,−1,−1,−1,−1, 2, 2, 2]. 長さと重み: MiniRocket によれば、MultiRocket は長さ 9 のカーネルを使用し、重みは2つの値に制限され、特に6つの重みが値 −1 を持ち、3つの重みが値 2, W =[−1,−1,−1,−1,−1,2,2] を持つようなカーネルの部分集合である。
訳抜け防止モード: -長さと重量 : MiniRocketによると、MultiRocketは長さ9のカーネルを使用する。 重さは2つの値に制限され 特に、6つの重みが値 −1 を持つような核の部分集合。 そして3つの重みは値 2、例えば W = [ −1,−1,−1,−1,−1,−1] を持つ。 2 , 2 , 2 ] .
0.83
– Bias: Bias values for each kernel/dilation combination are drawn from the convolution output. – バイアス: コンボリューション出力から、各カーネル/ダイレーション組み合わせのバイアス値が引き出される。 0.82
For each kernel/dilation combination, we compute the convolution output for a randomly-selected training example, and take the quantiles of this output as bias values. 各カーネル/ダイレーションの組み合わせに対して、ランダムに選択されたトレーニング例の畳み込み出力を計算し、この出力の量子をバイアス値とする。 0.69
(The random selection of training examples is the only random aspect of these kernels.) (訓練例のランダム選択は、これらのカーネルの唯一のランダムな側面である。) 0.69
– Dilation: Each kernel uses the same (fixed) set of dilations. – ディレーション: 各カーネルは同じ(固定された)ディレーションセットを使用します。 0.80
Dilations are set in the range {(cid:98)20(cid:99), ...,(cid:98)2max(cid :99)}, with the exponents spread uniformly between 0 and max= log2(linput − 1)/(lkernel − 1), where linput is the length of the input time series and lkernel is kernel length. ディレーションは {(cid:98)20(cid:99), ...,(cid:98)2max(cid :99)} の範囲に設定され、指数は 0 と max= log2(linput − 1)/(lkernel − 1) の間に均一に広がり、ここで linput は入力時系列の長さであり、lkernel はカーネル長である。 0.86
– Padding: Padding is alternated between kernel/dilation combinations, such that half of the kernel/dilation combinations use padding (standard zero padding), and half do not. –パディング:パディングはカーネル/ディレーションの組み合わせ間で交互に行われ、カーネル/ディレーションの組み合わせの半分はパディング(標準ゼロパディング)を使用し、半分は使用しません。 0.65
3.2 Longest period of consecutive values above zero 3.2 連続値が0より長い期間 0.85
In this section, we briefly discuss a new feature, LongStretch above 0 that is important for MultiRocket, before explaining MultiRocket in detail. このセクションでは、MultiRocketにとって重要な新機能であるLongStretch over 0について簡単に説明し、MultiRocketについて詳しく説明します。
訳抜け防止モード: 本稿では,MultiRocketにとって重要な新機能であるLongStretch on 0について概説する。 MultiRocketの詳細を説明する前に。
0.81
Previous research (Dempster et al., 2020b) and our experiments in Section 4 show that PPV on its own is a strong feature for MiniRocket and Rocket. 以前の研究(Dempster et al., 2020b)と第4節での我々の実験は、PV自体がMiniRocketとRocketの強力な特徴であることを示している。 0.71
PPV is a simple statistics that calculates the proportion of values in a time series above zero. PPVは、0以上の時系列における値の割合を計算する単純な統計である。 0.81
In this case the time series in question is the series of convolutional outputs from a kernel. この場合、問題となる時系列はカーネルからの一連の畳み込み出力である。 0.65
PPV does not capture information of the relative locations of the positive values in the convolutional outputs. PPVは、畳み込み出力における正の値の相対的な位置の情報を取得しない。 0.72
This information could be critical in differentiating two time series. この情報は、2つの時系列を区別するのに重要です。 0.57
Therefore, inspired by PPV and SB BinaryStats mean longstretch1 (one of the features in catch22), which calculates the longest period of consecutive values above the mean, we derive LongStretch above 0 that computes the longest period of consecutive values above zero. したがって、ppv および sb バイナリースタットは longstretch1 (catch22 の特徴の1つ) を意味し、平均より長い連続値の周期を計算し、0 よりも長い連続値の周期を 0 よりも長く計算するロングストレッチを導出する。 0.76
This feature is similar to PPV in that the more values above zero the longer the likely runs of consecutive values above zero. この特徴は PPV に似ており、0 以上の値が多いほど、0 以上の連続的な値の実行が長くなる。 0.70
However, it also captures information about the temporal ordering of the values in the convolution outputs. しかし、畳み込み出力における値の時間的順序付けに関する情報も取得する。 0.69
Our experiments show that LongStretch above 0 is a competitive feature to PPV and that its addition is important in improving the performance of MultiRocket. 実験の結果,0以上のLongStretchはPPVの競合機能であり,MultiRocketの性能向上に重要であることがわかった。 0.74
英語(論文から抽出)日本語訳スコア
8 3.3 Tranform 8 3.3 トランフォーム 0.66
Chang Wei Tan et al. Chang Wei Tanら。 0.61
After the convolution operation, features are applied to the convolution outputs to extract information about the time series. 畳み込み操作後、畳み込み出力に特徴を適用して時系列に関する情報を抽出する。 0.59
Rocket applies PPV and Max while MiniRocket applies only PPV (Dempster et al., 2020b,a). Rocket は PPV と Max を、MiniRocket は PPV (Dempster et al., 2020b,a) のみを適用する。 0.89
MultiRocket is parameterized by four main hyperparameters: (1) number of features, n; (2) set of fixed features F ; (3) set of optional features, O; and (4) number of optional features to select per kernel, r, where r ≤ |O|. マルチロケットは4つの主要なハイパーパラメータによってパラメータ化されている: (1) 特徴数 n; (2) 固定特徴数 f ; (3) オプション特徴数 o; (4) カーネルごとに選択するオプション特徴数 r, ここで r ≤ |o| である。 0.90
The number of kernels, k is then determined from the combinations of these parameters, where k=(cid:98)n/(|F| + r)(cid:99). 核の数 k はこれらのパラメータの組み合わせから決定され、ここで k=(cid:98)n/(|F| + r)(cid:99) となる。 0.77
For ease of reference, we identify each combination of parameters 2 to 4 with a unique numeric id, f . 参照の容易さのために、パラメータ2から4のそれぞれの組み合わせをユニークな数値id、fで識別する。 0.71
For instance, the default f =202 refers to the combination with F ={23}, O={4, 7, 17, 22, 24} and r=1, where the numbers in the sets F and O refer to the unique feature id of the base features used. 例えば、デフォルト f = 202 は F ={23}, O={4, 7, 17, 22 24} と r=1 の組合せであり、集合 F と O の数は基本特徴のユニークな特徴 id である。
訳抜け防止モード: 例えば、デフォルトの f = 202 は F = { 23 } との組み合わせを指します。 O={4, 7, 17, 22, 24 } と r=1 ここで、セット F と O の数値は、使用される基本機能のユニークな特徴 i d を参照します。
0.83
The feature ids are shown in Table 2 in Appendix A. 機能IDはAppendix Aのテーブル2に表示されます。 0.81
Larger n tends to but does not always give higher accuracy. より大きい n は常に高い精度を与えるわけではない。 0.81
The accuracy is also largely dependent on the quality of the features applied to each kernel. 精度は、各カーネルに適用される機能の品質にも大きく依存します。 0.68
As we will show in our experiments in Section 4, most of the catch22 features are not useful for this task. 第4節の実験で示すように、catch22の機能の多くは、このタスクには役に立たない。 0.70
We found that having n ≈ 20,000 provides a reasonable trade off between computation time and accuracy. 計算時間と精度のトレードオフは n × 20,000 であることがわかった。 0.63
In this work, we explored a large range of feature combinations (a total of 76, see Table 2 in Appendix A), to form a final set of feature combinations that work well, as shown in Table 1. 本研究では,様々な機能の組み合わせ(総数76,付録 a の表 2 を参照)について検討し,表 1 に示すように,機能の組み合わせの最終的なセットを形成することを試みた。 0.79
The first 26 features in Table 2 in Appendix A are the base features to form all the feature combinations in this work. appendix a の table 2 の最初の 26 機能は、この作業におけるすべての機能の組み合わせを形成する基本機能である。 0.79
Note that most of these features are from the catch22 feature set and can be extended with more features in future work. これらの機能のほとんどはcatch22の機能セットから提供されており、今後の作業でさらに機能を拡張することができる。 0.69
It is also important to note that both Rocket and MiniRocket are instantiations of MultiRocket. RocketとMiniRocketはどちらもMultiRocketのインスタンスである点にも注意が必要だ。 0.81
For instance if the kernels for Rocket are used, then f =50 (F ={23, 24}, O=∅, r=0) refers to the combination of PPV and Max, which is the same as Rocket. 例えば、ロケットの核が使われる場合、f =50 (f ={23, 24}, o= , r=0) はppvとmaxの組み合わせを指し、これはロケットと同じである。
訳抜け防止モード: 例えば、Rocket のカーネルが使用される場合、f = 50 (F = { 23, ) となる。 24 }, O = , r=0 ) は PPV と Max の組み合わせを指します。 ロケットと同じです。
0.81
If the kernels of MiniRocket (default) are used, then f =23, which refers to PPV is the same as MiniRocket. MiniRocket(デフォルト)のカーネルが使用されている場合、PPVを指すf = 23はMiniRocketと同じです。
訳抜け防止モード: MiniRocket (default ) のカーネルが使用される場合。 このとき PPV を指す f = 23 は MiniRocket と同じである。
0.82
3.3.1 The fixed feature combinations 3.3.1 固定機能の組み合わせ 0.67
The fixed feature combinations approach applies a fixed set of features to each kernel, i.e. 固定機能の組み合わせアプローチは、各カーネルに固定機能のセットを適用します。 0.71
all the kernels have the same features. 全てのカーネルには 同じ特徴があります 0.75
It is the typical way of applying features to Rocket and MiniRocket (Dempster et al., 2020a,b). これは、RocketおよびMiniRocket(Dempster et al., 2020a,b)に機能を適用する典型的な方法です。 0.77
The features applied to each kernel are shown in Table 1. 各カーネルに適用される特徴を表1に示す。 0.79
With no optional features (r=0), the number of features per kernel only depends on |F| for feature id, f . オプションの機能(r=0)がない場合、カーネルごとの機能数は |F| for feature id, f にのみ依存する。 0.74
For instance, f =48 computes two features per kernel, PPV and LongStretch above 0, while f =58 computes three features per kernel and so on. 例えば、f =48はカーネル毎の2つの機能、PPVとLongStretchは0、f =58はカーネル毎の3つの機能などを計算する。 0.72
In Section 4, we show that the fixed features approach is significantly more accurate than Rocket and MiniRocket with n ≥ 20,000 features. 第4節では、固定機能アプローチが、n ≥20,000の機能を持つRocketやMiniRocketよりもはるかに正確であることを示す。
訳抜け防止モード: 第4節では 固定機能アプローチは、n ≥ 20,000の機能を持つロケットやミニロケットよりもはるかに正確である。
0.66
It is also more accurate than the HIVE-COTE variants at larger n. また、より大きい n での HIVE-COTE の変種よりも正確である。 0.72
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
9 65 (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) 6 0 9 65 (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) 6 0 0.87
Feature id, f PPV LongStretch above 0 SB BinaryStats mean longstretch1 SB MotifThree quantile hh CO HistogramAMI even 2 5 Max Number of fixed features per kernel, |F| Number of optional features per kernel, r Feature id, f PPV LongStretch above 0 SB BinaryStats mean longstretch1 SB MotifThree Quantile hh CO HistogramAMI even 2 5 Max Number of fixed features per kernel, |F| Number of optional features per kernel, r 0.91
48 (cid:88) (cid:88) 48(cid:88)(cid:88) 0.77
2 0 58 (cid:88) (cid:88) 2 0 58(cid:88)(cid:88) 0.81
(cid:88) 3 0 (cid:88) 3 0 0.82
Feature id, f PPV LongStretch above 0 SB BinaryStats mean longstretch1 SB MotifThree quantile hh CO HistogramAMI even 2 5 Max Number of fixed features per kernel, |F| Number of optional features per kernel, r Feature id, f PPV LongStretch above 0 SB BinaryStats mean longstretch1 SB MotifThree Quantile hh CO HistogramAMI even 2 5 Max Number of fixed features per kernel, |F| Number of optional features per kernel, r 0.91
Feature id, f PPV LongStretch above 0 SB BinaryStats mean longstretch1 SB MotifThree quantile hh CO HistogramAMI even 2 5 Max Number of fixed features per kernel, |F| Number of optional features per kernel, r Feature id, f PPV LongStretch above 0 SB BinaryStats mean longstretch1 SB MotifThree Quantile hh CO HistogramAMI even 2 5 Max Number of fixed features per kernel, |F| Number of optional features per kernel, r 0.91
101 201 * * * * * * 0 1 101 201 * * * * * * 0 1 0.85
301 * * * * * * 0 3 301 * * * * * * 0 3 0.85
* * * * * * 0 2 * * * * * * 0 2 0.85
302 (cid:88) * * * * * 1 2 302 (cid:88) * * * * * 1 2 0.99
59 (cid:88) (cid:88) 59(cid:88)(cid:88) 0.76
(cid:88) 3 0 (cid:88) 3 0 0.82
202 (cid:88) * * * * * 1 1 202 (cid:88) * * * * * 1 1 0.99
303 * (cid:88) * * * * 1 2 303 * (cid:88) * * * * 1 2 0.92
60 (cid:88) (cid:88) 60(cid:88)(cid:88) 0.76
(cid:88) (cid:88) (cid:88)(cid:88) 0.74
4 0 203 * (cid:88) * * * * 1 1 4 0 203 * (cid:88) * * * * 1 1 0.90
304 (cid:88) (cid:88) * * * * 2 1 304 (cid:88) (cid:88) * * * 2 1 0.97
64 (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) 64 (cid:88) (cid:88) (cid:88) (cid:88) 0.90
5 0 205 (cid:88) 5 0 205年(第88回) 0.68
* * * * 1 1 * * * * 1 1 0.85
305 (cid:88) * * * * 1 2 305(第88回) * * * * 1 2 0.75
Table 1: Final set of feature combinations used in MultiRocket. 表1:MultiRocketで使用される機能の組み合わせの最終セット。 0.82
For each feature id f , (cid:88)marks the set of fixed features F , while * indicates the set of optional features O. 各機能 id f に対して (cid:88) は固定機能 F の集合をマークし、* はオプション機能 O の集合を示す。 0.80
3.3.2 The random feature combinations 3.3.2 ランダムな特徴の組み合わせ 0.60
The random feature combinations approach is the key aspect of MultiRocket in achieving high classification accuracy with less computational complexity. ランダムな特徴組合せアプローチは、計算複雑性の少ない高い分類精度を達成する上で、MultiRocketの重要な側面である。 0.72
Unlike the fixed feature combinations approach, it randomly assigns features to each kernel. 固定機能の組み合わせアプローチとは異なり、各カーネルにランダムに機能を割り当てる。 0.75
This approach follows a similar principle to Random Forest, where a subset of features is sampled for each tree in the forest. このアプローチはランダムフォレストと同様の原則に従い、森林内の各木ごとに特徴のサブセットをサンプリングします。 0.79
This creates diversity in the classifier that enhances its performance for various machine learning tasks (Breiman, 2001). これにより、様々な機械学習タスクのパフォーマンスを高める分類器の多様性が生じる(Breiman, 2001)。 0.83
Similarly in MultiRocket, the random assignment of features to each kernel, creates diversity in the features created from the convolution kernels with lesser features than the fixed feature combination approach and without substantially overfitting the training dataset. MultiRocketでも同様に、各カーネルに機能をランダムに割り当てることで、畳み込みカーネルから生成された機能に多様性が生まれ、固定された機能の組み合わせアプローチよりも機能が少なく、トレーニングデータセットに実質的に適合しない。
訳抜け防止モード: 同様に、MultiRocketでは、各カーネルに特徴をランダムに割り当てる。 固定された特徴の組み合わせアプローチよりも少ない特徴を持つ畳み込みカーネルから生成される特徴の多様性を生み出す トレーニングデータセットを 大幅に過度に適合させることなく
0.72
Depending on the feature id f , MultiRocket randomly assigns r features, uniformly sampled from the set of optional features, O shown in Table 1, to each kernel. 特徴 id f に応じて、MultiRocket は r の機能をランダムに割り当て、オプションの機能セットから一様にサンプリングし、表 1 に示す O を各カーネルに割り当てます。 0.77
The sets F and O make MultiRocket a semi-random approach. セット F と O は MultiRocket を半ランダムなアプローチにします。 0.74
The semi-random approach follows from the observation that always including strong features such as PPV or LongStretch above 0 while randomly sampling 半ランダムなアプローチは、ランダムにサンプリングしながら常にppvやロングストレッチのような強い特徴を含む観察から従う。 0.66
英語(論文から抽出)日本語訳スコア
10 Chang Wei Tan et al. 10 Chang Wei Tanら。 0.73
some weaker features tends to be more accurate. より弱い特徴は より正確である傾向があります 0.71
Then, depending on the size of the set of fixed features, |F| and r, different feature combinations can be created from the set O, as illustrated in Table 1. すると、固定特徴集合 |F| と r の大きさに応じて、表1に示すように、集合 O から異なる特徴の組み合わせを作成することができる。 0.79
3.4 Classifier Like Rocket and MiniRocket, the transformed features are used to train a linear classifier. 3.4 分類器 RocketやMiniRocketと同様に、変換された機能は線形分類器の訓練に使用される。 0.60
By default, MultiRocket uses a ridge regression classifier as the classifier. デフォルトでは、MultiRocketはリッジ回帰分類器を分類器として使用する。 0.64
As suggested in Dempster et al. Dempster et al に記載されている。 0.67
(2020b,a), a logistic regression classifier is preferable for larger datasets as it is faster to train. (2020b,a) より訓練が早いため,大規模データセットではロジスティック回帰分類器が好まれる。 0.80
All of our experiments in Section 4 were conducted with the ridge classifier. 第4節の実験はすべてリッジ分類器で行われました。 0.75
The software also supports the logistic regression classifier if required. このソフトウェアは必要に応じてロジスティック回帰分類器もサポートする。 0.67
4 Experiments In this section, we evaluate the classification accuracy of MultiRocket and present the process to obtain MultiRocket. 4つの実験 このセクションでは、MultiRocketの分類精度を評価し、MultiRocketを取得するプロセスを紹介します。 0.71
By default, MultiRocket uses kernels and the same n=10,000 number of features as MiniRocket. デフォルトでは、MultiRocketはカーネルとMiniRocketと同じn=10,000の機能を使用する。 0.72
For ease of reference, we name the different variants of MultiRocket in the experiments using the format kernels f n. For instance, minirocket 202 20k refers to MultiRocket with MiniRocket kernels, f =202, n=10,000 features and rocket 202 20k refers to the use of Rocket kernels with the same parameters. 例えば、minirocket 202 20kは、MiniRocketカーネル、f =202, n=10,000の機能を持つMultiRocketを指し、Rocket 202 20kは、同じパラメータを持つRocketカーネルを指す。
訳抜け防止モード: 参照を容易にするため、フォーマットカーネルfnを使った実験で、MultiRocketの異なる変種を命名する。 minirocket 202 20k は MiniRocket カーネルを持つ MultiRocket を指し、f = 202 である。 n=10,000 の特徴とロケット 202 20k は同じパラメータを持つロケットカーネルを指す。
0.86
Note that we use the default 10,000 kernels as of Rocket and MiniRocket in our experiments, unless stated otherwise. なお、特に明記がない限り、実験ではRocketとMiniRocketのようにデフォルトの10,000カーネルを使用します。 0.67
MultiRocket is implemented in Python, compiled via Numba (Lam et al., 2015) and we use the ridge regression classifier from scikit-learn (Pedregosa et al., 2011). MultiRocketはPythonで実装され、Numba(Lam et al., 2015)経由でコンパイルされ、Scikit-learn(Pedrego sa et al., 2011)のridge回帰分類子を使用します。 0.82
Our code and results are all publicly available in the accompanying website, https://github.com/C hangWeiTan/MultiRock et. 私たちのコードと結果はすべて、付随するWebサイトhttps://github.com/C hangWeiTan/MultiRock et.comで公開されています。 0.50
First we investigate the possibility of replacing PPV and Max in Rocket by studying the usefulness of each of the 76 feature combinations outlined in Table 2 (the first 26 features are the base features that formed the full combinations). まず,第2表で概説された76の特徴の組み合わせ(第126特徴は,全組み合わせを構成する基本特徴である)のそれぞれの有用性を検討することにより,ロケットにおけるppvとmaxの置き換えの可能性を検討する。 0.73
Then we show improved speed and accuracy by replacing the kernels defined for Rocket with kernels for MiniRocket. 次に,minirocketのカーネルにロケットで定義されたカーネルを置き換えることで,速度と精度の向上を示す。
訳抜け防止モード: そして、改良されたスピードと精度を示す。 Rocketで定義されたカーネルをMiniRocketのカーネルに置き換える。
0.66
We also show that MultiRocket is significantly more accurate than both of its predecessors. また、MultiRocketは前機種よりもはるかに正確であることも示しています。 0.66
Finally, we compare MultiRocket and the best variants of it with SOTA TSC algorithms. 最後に、MultiRocketとその最高のバリエーションをSOTA TSCアルゴリズムと比較します。 0.76
We show that MultiRocket is scalable and more accurate than HC-TDE – the current most accurate TSC algorithm as shown in Figure 1. 図1に示すように、現在最も正確なtscアルゴリズムであるhc-tdeよりも、multirocketはスケーラブルで正確である。 0.70
Figure 1 shows the average rank of one of the variants of MultiRocket compared with various SOTA TSC algorithms in the form of a critical difference diagram (Demˇsar, 2006). 図1は、臨界差分図の形で様々なsoma tscアルゴリズムと比較して、マルチロケットの変種のうちの1つの変種の平均ランクを示しています。 0.73
For the statistical test, we used the Wilcoxon signed-rank test with Holm correction as the post hoc test to the Friedman test (Demˇsar, 2006). 統計テストでは、Friedmanテスト(デムザル、2006)へのポストホックテストとして、ホルム補正付きウィルコクソン署名ランクテストを使用しました。 0.58
Classifiers where the pairwise accuracy is not significantly different from each other are connected with a black line (Demˇsar, 2006). ペアワイズ精度が互いに大きく異なることのない分類器は、黒線で接続される(dem sar, 2006)。 0.80
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
11 Fig. 4: Average rank of Rocket with one fixed feature per kernel in terms of accuracy against Rocket on 128 UCR datasets. 11 フィギュア。 4: 128 UCRデータセット上のRocketに対する精度の観点から、カーネルごとに1つの固定機能を持つRocketの平均ランク。 0.64
PPV and Max are f =23 and f =24 respectively. PPV と Max はそれぞれ f =23 と f =24 である。 0.83
4.1 Feature combinations 4.1 特徴の組み合わせ 0.62
We first study the usefulness of each of our individual features in terms of their classification accuracy on all 128 UCR datasets (Dau et al., 2019) when used with the Rocket kernels. まず、ロケットカーネルで使用するすべての128のUCRデータセット(Dau et al., 2019)の分類精度の観点から、個々の機能の有用性を調べます。 0.64
4.1.1 Fixed feature combinations 4.1.1 固定機能の組み合わせ 0.56
One feature per kernel: First, we study the performance of each base feature outlined in Table 2 in Appendix A compared with PPV and Max. カーネルごとの1つの特徴:まず、付録Aの表2で概説された各基本機能のパフォーマンスを、PPVおよびMaxと比較して検討する。 0.70
We create 26 variants of Rocket with the base features, including PPV and Max. PPVとMaxを含むベース機能を備えた26種類のRocketを作成します。 0.72
These features replace PPV and Max in Rocket. これらの機能はロケットのppvとmaxを置き換える。 0.61
Since there is only one feature per kernel, there are n=10,000 features per time series. カーネル毎に1つの機能があるため、時系列毎にn=10,000の機能がある。 0.59
Figure 4 compares all 26 variants of Rocket with single feature to Rocket. 図4は、ロケットのすべての26のバリエーションを単一の機能と比較します。 0.70
Not surprisingly, Rocket is the most accurate among all as it has 2 times more features than each of these variants. 当然のことながら、Rocketはこれらのバリエーションの2倍の機能が備わっているため、最も正確だ。 0.65
The result also shows that most of the features are very weak compared with PPV and Max, with the majority of them being significantly less accurate. 結果として、ほとんどの機能はppvやmaxに比べて非常に弱く、その大部分は正確性が低いことが判明した。 0.74
The figure shows that our new feature, f =22 (LongStretch above 0) is a strong feature that is competitive with PPV and Rocket. 図は、我々の新機能であるf = 22(0以上)は、ppvやロケットと競合する強力な機能であることを示している。 0.65
In addition, all but 3 of the catch22 features さらに、catch22 の機能の 3 つを除くすべて。 0.76
– f =4, CO HistogramAMI even 2 5 – f =7, SB BinaryStats mean longstretch1 – f =17, SB MotifThree quantile hh - f =4, CO HistogramAMI even 2 5 – f =7, SB BinaryStats mean longstretch1 – f =17, SB MotifThree Quantile hh 0.95
are significantly less accurate than Max. Maxほど正確ではありません。 0.76
This suggests these four features as potential candidates to replace Max in Rocket. これは、ロケットでMaxを置き換える候補としてこれらの4つの特徴を示唆している。 0.56
The 19 remaining catch22 features are found to not be very useful and after this was confirmed in the next experiment, were not considered further. 残りの19のキャッチ22機能はあまり役に立たず、次の実験でこれが確認された後、それ以上は考慮されなかった。 0.78
12345678910111213141 51617181920212223242 5rocket_5_10krocket_ 25_10krocket_9_10kro cket_19_10krocket_18 _10krocket_15_10kroc ket_21_10krocket_10_ 10krocket_3_10krocke t_11_10krocket_12_10 krocket_8_10krocket_ 20_10krocket_1_10kro cket_6_10krocket_2_1 0krocket_0_10krocket _16_10kMaxrocket_4_1 0krocket_17_10krocke t_7_10krocket_22_10k PPVRocket 12345678910121417172 0202325rocket_5_10kr ocket_25_10krocket_9 _10krocket_19_10kroc ket_18_10krocket_10k rocket_10_10krocket_ 21_10krocket_10krock et_10krocket_3_10kro cket_11_10krocket_12 _10krocket_8_10krock et_20_10krocket_1_10 krocket_6_10krocket_ 2_10krocket_0krocket _10krocket_16kmaxroc ket_4_10krocket_17_1 0krocket_7_10krocket _22_10krocketvロケット 0.02
英語(論文から抽出)日本語訳スコア
12 Chang Wei Tan et al. 12 Chang Wei Tanら。 0.73
Fig. 5: Average rank of Rocket with two fixed features per kernel, PPV and a base feature in terms of accuracy against Rocket on 128 UCR datasets. フィギュア。 5: 128 UCRデータセット上のRocketに対する精度の観点から、カーネル、PPV、およびベース機能ごとに2つの固定機能を備えたRocketの平均ランク。 0.54
f =50 is the combination for Rocket (PPV and Max). f = 50 はロケット (PPV と Max) の組合せである。 0.88
Two features per kernel: Since most catch22 features are not useful for TSC and PPV appears to be the strongest feature, we further investigate the possibility of replacing Max in Rocket by pairing PPV with another base feature from Table 2 in Appendix A for each kernel. カーネルごとに2つの特徴がある: tsc と ppv ではほとんどの catch22 機能は役に立たないため、ppv を各カーネル a のテーブル 2 から別の基本機能と組み合わせることで、ロケットの max を置き換える可能性をさらに調査する。 0.73
We create another 26 variants of Rocket using feature ids, f =[26, ..., 52] and the same n=20,000 features as Rocket. 我々は、f =[26, ..., 52] と n=20,000 と同じ特徴を持つ特徴idを用いて、別の26種類のロケットを製作する。 0.75
Note that f =49 corresponds to the combination with two PPVs each used with a different bias term (all other feature combinations use the same bias term for all features.) f =49 は異なるバイアス項を持つ2つの PPV の組み合わせに対応する(他のすべての特徴組合せはすべての特徴に対して同じバイアス項を使用する)。 0.82
Figure 5 shows the relative ranks of each of these combinations. 図5は、これらの組み合わせの相対的なランクを示しています。 0.54
Similar to the previous experiments, the result shows that most features performed poorly. 以前の実験と同様、ほとんどの特徴は不十分であった。 0.63
The most accurate combination is f =48, the combination of PPV and LongStretch above 0 (f =22), which is significantly more accurate than Rocket with a win/draw/loss of 63/25/40 as shown in Figure 6a. 最も正確な組み合わせはf =48であり、PPVとLongStretchの組み合わせは0(f =22)であり、図6aに示すようにロケットよりもはるかに正確である。 0.72
It is also more accurate than MiniRocket as illustrated in Figure 6b, This shows the potential of LongStretch above 0 as a new feature for Rocket and replacement for Max. 図6bに示すように、MiniRocketよりも正確である。これはRocketの新機能とMaxの代替として、0の上にLongStretchの可能性を示している。 0.70
In fact, we will show in later experiments that f =48 is a strong feature combination that is comparable to all the HIVE-COTE variants. 実際、後の実験において、f =48 はすべての HIVE-COTE 変種に匹敵する強い特徴組合せであることを示す。 0.82
Features the f =30 and f =43 are 特徴 はあ? f = 30 と f =43 は 0.67
combinations of PPV with CO HistogramAMI even 2 5 and SB MotifThree quantile hh respectively. PPV と CO HistogramAMI の組み合わせはそれぞれ 2 5 と SB MotifThree Quantile hh である。 0.80
Both performed better than Max on the single feature experiment. 両者は、単一の機能実験でマックスより優れていた。 0.71
However, the combination of PPV with SB BinaryStats mean longstretch1 (f =33) appears to be less accurate than Rocket. しかし、PSVとSB BinaryStatsの組み合わせは、longstretch1 (f = 33)がRocketよりも正確でないことを意味する。 0.69
In addition, we also observe that replacing Max in Rocket with PPV (i.e. さらに、Max in Rocket を PPV (i.e.) に置き換えることも観察した。 0.72
two PPV with different bias terms, f =49), is as good as Rocket. バイアス項が異なる2つのPPV(f =49)は、Rocketと同等である。 0.67
This shows that PPV is a strong feature. これはPPVが強い特徴であることを示します。 0.65
Can PPV be replaced by LongStretch above 0? PPVをLongStretchに置き換えることはできますか? 0.82
Since LongStretch above 0 when paired with PPV is significantly better than Rocket (PPV with Max), we examined whether this feature can replace PPV in Rocket and pair LongStretch over 0 with PPVはRocket(PPV with Max)よりも有意に優れているため、この機能はRocketとペアでPPVを置き換えることができるかどうかを検討しました。 0.71
12345678910111213141 51617181920212223roc ket_31_20krocket_35_ 20krocket_27_20krock et_34_20krocket_45_2 0krocket_26_20krocke t_29_20krocket_37_20 krocket_51_20krocket _41_20krocket_38_20k rocket_46_20krocket_ 28_20krocket_42_20kr ocket_33_20krocket_3 6_20krocket_32_20kro cket_47_20krocket_49 _20kRocketrocket_43_ 20krocket_30_20krock et_48_20k 1234567891111141618 19202123rocket_31_20 krocket_35_20krocket _27_20krocket_34_20k rocket_45_20krocket_ 26_20krocket_29_20kr ocket_37_20krocket_5 1_20krocket_41_20kro cket_38_20krocket_46 _20krocket_28_20kroc ket_42_20krocket_33_ 20krocket_36_20krock et_32_20krocket_47_4 9_20krocket_48_20kro cket 0.02
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
13 (a) (b) 13 (a) (b) 0.85
Fig. 6: Pairwise comparison of rocket 48 20k against (a) Rocket and (b) MiniRocket, in terms of accuracy on the 128 UCR datasets. フィギュア。 6:(a)ロケットと(b)ミニロケットに対するロケット48 20kの対比を、128のUCRデータセットの精度の観点から比較する。 0.62
rocket 48 20k is significantly more accurate than Rocket and comparable to MiniRocket. ロケット48 20kはロケットよりもかなり正確で、MiniRocketに匹敵します。 0.81
(a) (b) Fig. (a) (b) フィギュア。 0.71
7: Pairwise comparison of rocket 62 20k in terms of accuracy against (a) Rocket and (b) MiniRocket on the 128 UCR datasets. 7:(a)ロケットと(b)UCRデータセット上のMiniRocketに対する精度の点でロケット62 20kのペアワイズの比較。 0.79
it with Max. Hence we create a variant of Rocket with this combination (f =62) and n=20,000 features. マックスとのそれ。 したがって、この組み合わせ(f=62)とn=20,000の特徴を持つロケットの変種を作成する。 0.74
We performed a pairwise comparison between rocket 62 20k and Rocket on the 128 UCR datasets. 128 ucrデータセットでロケット62 20kとロケットを対数で比較した。 0.70
Figure 7a shows that Rocket is still more accurate than this combination, performing better on 56 and losing on 47 out of the 128 datasets. 図7aは、この組み合わせよりもロケットの方が正確であり、56でパフォーマンスが良く、128のデータセットのうち47で負けていることを示している。 0.63
This further supports our finding that PPV is a strong feature and is difficult to be replaced for Rocket. これは、PPVが強力な機能であり、Rocketに置き換えるのは難しいという私たちの発見をさらに支持します。
訳抜け防止モード: これはさらに私たちの発見を支えます。 PPVは強力な機能であり、ロケットに置き換えることは困難です。
0.70
0.00.20.40.60.81.0Ro cket0.00.20.40.60.81 .0rocket_48_20kRocke t is better hererocket_48_20k is better hererocket_48_20k vs Rocket 63/25/400.00.20.40.6 0.81.0MiniRocket0.00 .20.40.60.81.0rocket _48_20kMiniRocket is better hererocket_48_20k is better hererocket_48_20k vs MiniRocket 57/23/480.00.20.40.6 0.81.0Rocket0.00.20. 40.60.81.0rocket_62_ 20kRocket is better hererocket_62_20k is better herePigAirwayPressur e (0.663)rocket_62_20k vs Rocket 47/25/560.00.20.40.6 0.81.0MiniRocket0.00 .20.40.60.81.0rocket _62_20kMiniRocket is better hererocket_62_20k is better hererocket_62_20k vs MiniRocket 46/19/63 0.00.20.40.60.81.0Ro cket0.00.20.40.60.81 .0rocket_48_20kRocke t is better hererocket_48_20k is better hererocket_48_20k vs Rocket 63/25/400.00.20.40.6 0.81.0MiniRocket0.00 .20.40.60.81.0rocket _48_20kMiniRocket is better hererocket_48_20k is better hererocket_48_20k vs MiniRocket 57/23/480.00.20.40.6 0.81.0Rocket0.00.20. 40.60.81.0rocket_62_ 20kRocket is better hererocket_62_20k is better herePigAirwayPressur e (0.663)rocket_62_20k vs Rocket 47/25/560.00.20.40.6 0.81.0MiniRocket0.00 .20.40.60.81.0rocket _62_20kMiniRocket is better hererocket_62_20k is better hererocket_62_20k vs MiniRocket 46/19/63 0.22
英語(論文から抽出)日本語訳スコア
14 Chang Wei Tan et al. 14 Chang Wei Tanら。 0.73
In addition, we also observed that rocket 62 20k (and also rocket 48 20k, in Figure 6a) is significantly more accurate on the PigAirwayPressure dataset compared with Rocket, with a difference in accuracy of 0.663. さらに,ピグエア圧データセットでは,ロケット6220k(および図6aでは4820k)がロケットに比べてかなり精度が高く,精度は0.663であることも観測した。 0.78
Rocket performed poorly on this dataset due to the way the bias values are sampled which was mitigated with MiniRocket (Dempster et al., 2020b). ロケットは、MiniRocket(Dempster et al., 2020b)で緩和されたバイアス値のサンプリング方法により、このデータセットでは不十分に動作した。
訳抜け防止モード: Rocketはこのデータセットでうまく動作しなかった。 バイアス値は、MiniRocket(Dempster et al , 2020b)で軽減されたサンプルです。
0.82
Our results in Figure 7b show that by simply replacing PPV with LongStretch above 0, Rocket performs similarly with MiniRocket, again, showing the effectiveness of LongStretch above 0. 図7bの結果は、単にPPVをLongStretch over 0に置き換えるだけで、RocketはMiniRocketと同じように動作し、LongStretch over 0の有効性を示しています。 0.71
Increasing the number of features Previously, we had only explored up to n=20,000 features or 2 features per kernel (the default for Rocket). 機能の数を増やす以前は、カーネル(Rocketのデフォルト)ごとにn=20,000機能または2機能だけを探索していました。 0.67
Previous research, Dempster et al. 前回の研究、dempster et al。 0.81
(2020a) shows that adding 2 features (PPV and Max) to Rocket is more accurate than PPV alone. (2020a)は、ロケットに2つの機能(PPVとMax)を追加することがPPV単独よりも正確であることを示しています。
訳抜け防止モード: (2020a) ロケットに2つの特徴(PPVおよびマックス)を加えることはPPVだけより正確です。
0.77
Having more features allows the algorithm to create a more diverse set of features from the time series and improves the classification accuracy of the algorithm. より多くの特徴を持つことにより、アルゴリズムは時系列からより多様な機能セットを作成し、アルゴリズムの分類精度を向上させることができます。 0.75
In this experiment, we look at the effect of creating more features for MultiRocket. この実験では、MultiRocketのより多くの機能を作成する効果について検討します。 0.72
We explore the combination of PPV with more features that are shortlisted in the single feature per kernel experiment. 我々は、カーネル実験ごとに単一の機能でショートリストされているより多くの機能とPPVの組み合わせを検討します。
訳抜け防止モード: ppvとより多くの特徴を組み合わせることで カーネル実験ごとに1つの機能にまとめられています。
0.65
Table 2 in Appendix A shows the combinations explored in this experiment, where f =[53, ..., 65]. 付録Aの表2は、f = [53, ..., 65] というこの実験で探索された組み合わせを示している。 0.78
We also increase the number of kernels for Rocket, MiniRocket and the Rocket variant with f =48 to create n=40,000 features, doubling the default number of features in Rocket. また、ロケット、ミニロケット、およびf =48のロケット用のカーネル数を増やして、n=40,000の機能を作成し、ロケットのデフォルト機能数を倍増させました。 0.69
Figure 8 shows that the f =[48, 58, 59, 60, 64, 65] variants are more accurate than MiniRocket even with 4 times more features. 図8は、f =[48, 58, 59, 60, 64, 65]の変種が4倍の機能を持つMiniRocketよりも正確であることを示している。 0.86
Note that doubling and quadrupling the number of features in Rocket and MiniRocket respectively are more accurate than their default number of features, although not significantly different (Dempster et al., 2020b,a). RocketとMiniRocketの機能の倍増と倍増はそれぞれデフォルトの機能の数よりも正確であることに注意してください(Dempster et al., 2020b,a)。
訳抜け防止モード: ロケットとミニロケットにはそれぞれ2倍と4倍の機能がある。 デフォルトの機能数よりも正確だが、dempster et al ., 2020b, a)とは大きく異なるわけではない。
0.74
Although increasing the number of kernels has little gain for Rocket and MiniRocket, but it has larger gain for the variant with f =48. カーネルの数を増やすことはRocketとMiniRocketの利益はほとんどないが、f = 48の変種では大きな利益を得ている。 0.73
Figure 13d in Appendix B shows that rocket 48 40k is significantly more accurate than rocket 48 20k. アペンディックスBの図13dは、ロケット4840kがロケット4820kよりもかなり正確であることを示している。
訳抜け防止モード: Appendix B の図 13d は、 ロケット48 40kは ロケット48 20kよりかなり正確だ
0.78
This shows that pairing PPV with LongStretch above 0 is a great combination. これは、0 上のLongStretch とのペアリング PPV が素晴らしい組み合わせであることを示している。 0.63
Furthermore, we observe that in general, larger n is more accurate but it is still dependent on the feature combination. さらに、一般に、より大きな n はより正確であるが、それでも特徴の組み合わせに依存することを観察する。 0.75
For instance, f =60 with n=40,000 features is more accurate than f =[58, 59] – the variants with similar set of fixed features F , but with 1 feature per kernel lesser, while f =58 with n=30,000 features is more accurate than most other variants (including MiniRocket) with more features. 例えば、n=40,000 の機能を持つ f = 60 は f =[58, 59] よりも正確で、同じ固定された機能を持つ変種は F より小さいが、n=30,000 機能を持つ f =58 は、多くの機能を持つ他の多くの変種 (MiniRocket を含む) よりも正確である。 0.76
The results also demonstrate that the top most accurate variants, are all significantly more accurate than Rocket. その結果、最も正確な派生型はロケットよりもはるかに正確であることが判明した。 0.73
They are the combinations that include PPV and LongStretch above 0. これらはppvとlongstretchを0以上含む組み合わせである。 0.69
While keeping two other features the same, the more accurate, f =58 variant uses LongStretch above 0 while f =53 uses the weaker SB BinaryStats mean longstretch1, again showing the superiority of the new feature, LongStretch above 0. 2つの他の特徴を同じに保ちながら、より正確なf =58の変種は0の上のLongStretchを使用し、f =53は弱いSB BinaryStats平均longstretch1を使用し、再び新機能の優位性を示し、LongStretchは0の上の0。 0.71
In addition, the variant with f =57, which does not include either PPV or LongStretch above 0 performs the worse among all. さらに、0 以上の PPV または LongStretch を含まない f =57 の変形は、すべての中で最悪である。 0.70
This further emphasises the importance of combining PPV and LongStretch above 0 in improving Rocket and MiniRocket, as observed in previous experiments. これは、以前の実験で観察されたように、ロケットとミニロケットの改良において、ppvとロングストレッチを0以上組み合わせることの重要性をさらに強調する。
訳抜け防止モード: このことは重要性をさらに強調する。 PPVとLongStretchを0の上に組み合わせて、RocketとMiniRocketを改良した。
0.56
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
15 Fig. 8: Average rank of MultiRocket with n > 20,000 in terms of accuracy versus Rocket and MiniRocket on 128 UCR datasets. 15 フィギュア。 8: 128 UCRデータセットのRocketとMiniRocketと比較して、精度の点でn > 20,000のMultiRocketの平均ランク。 0.69
Fig. 9: Average ranks of Rocket with random features per kernel in terms of accuracy versus Rocket and MiniRocket on 128 UCR datasets. フィギュア。 9: 128 UCRデータセットのRocketとMiniRocketと比較して、カーネルごとにランダムな機能を持つRocketの平均ランク。 0.60
4.1.2 Random feature combinations 4.1.2 ランダム機能の組み合わせ 0.54
We next study the random features approach described in Section 3.3.2. 次に,3.3.2節で記述したランダム特徴法について検討する。 0.42
Figure 9 shows the critical difference diagram of comparing variants of MultiRocket with the random features to MiniRocket and Rocket. 図9は、MultiRocketとMiniRocketとRocketのランダム機能を比較する重要な違い図を示しています。 0.84
All variants are more accurate than Rocket and MiniRocket. すべてのバリエーションはRocketやMiniRocketよりも正確です。 0.80
In particular, f =101, with n=10,000 features and 1 random feature per kernel, is sufficient to improve MiniRocket (with the same number of features). 特に f = 101 は n=10,000 個の特徴を持ち、カーネル毎に 1 個のランダムな特徴を持ち、MiniRocket を改善するのに十分である。 0.68
As expected, the result also shows that most variants with n=30,000 features, f =[301, 302, 303, 304], are very accurate. 予想通り、n=30,000 個の特徴を持つほとんどの変種 f =[301, 302, 303, 304] は非常に正確である。 0.77
However, the f =202 variant appears to be the most accurate in this case. しかし、f =202 の変種は、この場合最も正確であると思われる。 0.83
It has the same n=20,000 features as Rocket, is significantly more accurate than MiniRocket and also very competitive with the n=30,000 features variants. Rocketと同じn=20,000の機能を持ち、MiniRocketよりもはるかに正確であり、n=30,000機能と非常に競合する。 0.76
This shows the effectiveness of the random feature combination approach which achieves high classification accuracy with fewer features than required when all features are applied to all convolution outputs. これは、全ての特徴を全ての畳み込み出力に適用する場合に必要よりも少ない特徴量で高い分類精度を達成するランダム特徴結合手法の有効性を示す。 0.81
In fact, the default configuration of MultiRocket uses f =202 with n=10,000 features. 実際、MultiRocketのデフォルト設定では、f = 202とn=10,000の機能を使用する。 0.62
Another important observation is that the f =205 and f =305 variants do not include LongStretch above 0 and are slightly less accurate than f =202 that includes LongStretch above 0. もう1つの重要な観察は、f =205 と f =305 の変種は 0 以上のロングストレッチを含まず、f =202 よりもわずかに正確ではないことである。 0.72
This again shows the effectiveness of our new feature, LongStretch above 0, in improving the classification accuracy of MultiRocket. このことは、MultiRocketの分類精度を改善する上で、当社の新機能であるLongStretch on 0の有効性を示している。 0.65
1234567891011121314r ocket_57_30krocket_5 3_30krocket_61_30kro cket_54_30kRocket_40 krocket_55_30krocket _56_40kMiniRocket_40 krocket_59_30krocket _64_50krocket_58_30k rocket_48_40krocket_ 60_40krocket_65_60k1 23456789101112Rocket MiniRocketrocket_101 _10krocket_203_20kro cket_201_20krocket_3 03_30krocket_305_30k rocket_205_20krocket _301_30krocket_304_3 0krocket_302_30krock et_202_20k 123456789111214rocke t_57_30krocket_53_30 krocket_61_30krocket _54_30kRocket_40kroc ket_55_30krocket_56_ 40kMiniRocket_40kroc ket_59_30krocket_64_ 50krocket_58_30krock et_48_40krocket_60_4 0krocket_65_60k12345 891012RocketMiniRock et_101_10krocket_203 _20krocket_201_20kro cket_303_30krocket_0 5_05_20krocket_30kro cket_30krocket_30kro cket_02krocket_02kro cket_02krocket_02kro cket_20krocket_02 0.02
英語(論文から抽出)日本語訳スコア
16 4.1.3 Discussion 16 4.1.3 議論 0.65
Chang Wei Tan et al. Chang Wei Tanら。 0.61
Recall that PPV and Max are applied to Rocket and MiniRocket. PPVとMaxはRocketとMiniRocketに適用されることを思い出してください。 0.71
These two features capture information about the distribution of values in the convolution outputs, but they are insensitive to the temporal ordering of those values. これら2つの特徴は畳み込み出力の値の分布に関する情報をキャプチャするが、それらの値の時間順序には影響を受けない。 0.72
We hypothesized that adding to MiniRocket and Rocket features that are sensitive to temporal order, would enhance its accuracy. 時間順に敏感なMiniRocketとRocketの機能を追加することで、精度が向上する、という仮説を立てた。 0.65
This was a primary motivation for the current work, but we have not been able to devise an effective test for the hypothesis. これは現在の作業の主な動機でしたが、仮説の効果的なテストを考案することができませんでした。 0.77
In fact, most of our experiments suggest that there is little benefit in using features that are sensitive to temporal order, such as catch22 features. 実際、私たちの実験のほとんどは、catch22のような時間順に敏感な機能を使うことにはほとんどメリットがないことを示唆している。 0.66
Hence it remains speculative as to whether it is this attention to temporal order or other properties of the additional features that lead to MultiRocket’s exceptional performance. したがって、MultiRocketの優れたパフォーマンスにつながる追加機能の一時的な順序や他の特性にこの注意であるかどうかについては推測的です。 0.76
Regardless, we found a few feature combinations that work well together and significantly improve the performance of Rocket and MiniRocket. いずれにせよ、RocketとMiniRocketのパフォーマンスを大幅に改善するいくつかの機能の組み合わせを見つけました。 0.76
This forms the final set of feature combinations for MultiRocket, that are more accurate than both Rocket and MiniRocket. これは、RocketとMiniRocketの両方よりも正確であるMultiRocketの機能の組み合わせの最終セットを形成します。 0.84
The combinations are listed in Table 1, specifically f =[48, 58, 59, 60, 64, 65], and all of the random feature combinations, all of which include the combination of PPV and LongStretch above 0. 組み合わせは表1に記載されている: 特に f =[48, 58, 59, 60, 64, 65] と、すべてのランダムな特徴の組み合わせは、それぞれ 0 以上の PPV と LongStretch の組み合わせを含む。 0.81
4.2 Using kernels from MiniRocket 4.2 MiniRocket のカーネルの使用 0.70
The above experiments show that certain variants of MultiRocket using the Rocket kernels are significantly more accurate than Rocket and comparable to MiniRocket. 上記の実験は、ロケットカーネルを使用したMultiRocketの特定のバリエーションがRocketよりも大幅に正確であり、MiniRocketに匹敵することを示しています。
訳抜け防止モード: 上記の実験は ロケットカーネルを使用したMultiRocketの特定のバリエーションは、Rocketよりもはるかに正確で、MiniRocketに匹敵します。
0.75
Since MiniRocket is more accurate than Rocket, we next investigate MultiRocket with MiniRocket kernels. MiniRocketはRocketよりも正確であるため、次にMiniRocketカーネルでMultiRocketを調査します。 0.79
We use the best performing feature combination of MultiRocket from previous experiments, f =[48, 58, 59, 60, 64, 65, 202, 302, 304] and compare them in Figure 10. 従来の実験では,f =[48, 58, 59, 60, 64, 65, 202, 302, 304] という,MultiRocketの最高の機能の組み合わせを使用して,図10で比較する。 0.86
The results show that all of the variants are more accurate than MiniRocket and Rocket, and there are no significant differences between the usage of the two kernels. 結果は、すべてのバリエーションがMiniRocketとRocketよりも正確であり、2つのカーネルの使用に有意な違いはないことを示している。 0.76
The most accurate variant is using f =304 with MiniRocket kernels. 最も正確なバリエーションは、MiniRocketカーネルでf =304を使用することです。 0.66
Figure 3 shows the total compute time of the most accurate version of each variant, rocket 202 20k with minirocket 302 30k and the same f =202 combination at different number of kernels, minirocket 202 20k and minirocket 202 10k. 図3は、各バージョンで最も正確なバージョンの計算時間、minirocket 302 30kのrocket 202 20kと、異なる数のカーネルで同じf = 202の組み合わせ、minirocket 202 20kとminirocket 202 10kを示している。 0.83
The Rocket kernels are approximately 10 times slower than the MiniRocket kernels variants and 100 time slower than MiniRocket. ロケットカーネルはMiniRocketカーネルの約10倍遅く、MiniRocketよりも100倍遅い。 0.59
Therefore, the MiniRocket kernels and the random feature combination are recommended for MultiRocket. したがって、MiniRocketカーネルとランダムな機能の組み合わせはMultiRocketに推奨されます。 0.82
4.3 New state of the art 4.3 新たな技術の現状 0.72
After the process of finalizing MultiRocket, we now evaluate MultiRocket and compare it with the SOTA TSC algorithms. また,MultiRocketのファイナライズプロセスの後に,MultiRocketを評価し,SOTA TSCアルゴリズムと比較した。 0.82
For consistency and direct comparability with the SOTA TSC algorithms, we evaluate MultiRocket on the SOTA TSCアルゴリズムとの整合性と直接整合性について,MultiRocketの評価を行った。 0.67
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
17 Fig. 10: Average ranks of MultiRocket with Rocket and MiniRocket kernels, in terms of accuracy versus Rocket and MiniRocket on 128 UCR datasets. 17 フィギュア。 10: RocketとMiniRocketカーネルによるMultiRocketの平均ランクは、128のUCRデータセット上のRocketとMiniRocketに対して正確である。 0.70
same 30 resamples of 109 datasets from the UCR archive (Bagnall et al., 2020; Middlehurst et al., 2020b,a; Dempster et al., 2020b). UCRアーカイブ(Bagnall et al., 2020; Middlehurst et al., 2020b,a; Dempster et al., 2020b)からの109データセットの同じ30の再サンプル。 0.91
Note that each resample creates a different distribution for the training and test sets. 各再サンプルは、トレーニングとテストセットの異なる分布を作成することに注意してください。 0.70
Figure 1 shows that the default configuration of MultiRocket (f =202, n=10,000 features) is more accurate than HC-TDE, while only taking 14 minutes on 109 datasets, making it the current most accurate univariate TSC algorithm on the UCR datasets. 図1は、MultiRocketのデフォルト設定(f = 202, n=10,000)がHC-TDEよりも正確であることを示し、109データセットで14分しかかからず、現在のUCRデータセット上で最も正確な単変量TSCアルゴリズムであることを示している。 0.70
It is also significantly more accurate than MiniRocket as shown in Figure 2b. 図2bに示すように、MiniRocketよりもはるかに正確である。 0.81
We set this configuration as default for MultiRocket because it has the same number of features as MiniRocket, making it fast and highly accurate. この設定をMultiRocketのデフォルトに設定しました。MiniRocketと同じ数の機能を備えているため、高速かつ高精度です。 0.75
However, there are other variants of MultiRocket that are more accurate with some additional computational expense, including the fixed feature combination approach (see Appendix C and D). しかし、いくつかの追加の計算費用でより正確であるMultiRocketの他のバリエーションは、固定機能の組み合わせアプローチを含む(付録CとDを参照)。 0.80
In this section, we show an example by comparing the best variant from Figure 10, minirocket 304 30k, to recent SOTA TSC algorithms. このセクションでは、図10、ミニロケット304 30kから最近のSOTA TSCアルゴリズムまでの最良の変形を比較した例を示します。 0.76
Not surprisingly, Figure 11 shows that minirocket 304 30k is on average more accurate than HC-TDE. 図11は、ミニロケット304 30kがHC-TDEよりも平均的に正確であることを示しています。 0.62
Similar to MultiRocket, HC-TDE has the most advantage over minirocket 304 30k on the SemgHandMovementCh2 dataset where HC-TDE is 0.161 more accurate, as illustrated in Figure 12a. multirocket と同様、hc-tde は semghandmovementch2 データセットにおいて、図 12a に示すように hc-tde の精度が 0.161 である minirocket 304 30k よりも優れている。 0.61
We also observed in Figure 12b, that by doubling the number of features in MultiRocket, we achieved even better accuracy compared with HC-TDE. 図12bでは、MultiRocketの機能数を倍増することで、HC-TDEと比較してさらに高い精度を実現しました。 0.64
The same was observed for the fixed feature approach, where using f =48 with n=40,000 features, is more accurate than HC-TDE, as shown in Figure 19 in Appendix C. This shows the potential of increasing the number of features to improve MultiRocket but with the trade-off of increasing computational time. 付録Cの図19に示すように、f = 48とn=40,000の機能を使用することがHC-TDEよりも正確である固定機能アプローチでも同じことが観察された。
訳抜け防止モード: 同じことが、f = 48 で n=40,000 個の特徴を持つ固定的特徴法でも観察された。 Appendix Cの図19に示すように、HC - TDEよりも正確です。 MultiRocketを改善する機能の数を増やす しかし、この取引により、計算時間が増加しています。
0.70
Figure 3 shows that minirocket 304 30k (the most computational expensive among all variants) and minirocket 202 20k, only approximately double the compute time of MultiRocket. 図3は、ミニロケット304 30k(全変種の中で最も高価な)とミニロケット202 20k(MultiRocketの計算時間の約2倍)を示している。 0.73
Note that the total compute time of 35 minutes on 32 threads is still reasonable and much faster than other SOTA TSC algorithms. 32スレッドの35分の総計算時間は、他のSOTA TSCアルゴリズムよりもはるかに合理的で高速であることに注意してください。 0.71
12345678910111213141 51617181920MiniRocke tRocketminirocket_64 _50krocket_48_20kroc ket_59_30krocket_64_ 50kminirocket_65_60k minirocket_59_30kmin irocket_60_40krocket _58_30krocket_60_40k minirocket_58_30kroc ket_65_60kminirocket _48_20kminirocket_30 2_30krocket_304_30km inirocket_202_20kroc ket_302_30krocket_20 2_20kminirocket_304_ 30k 12345678911111414161 8 1920MiniRocketRocket Rocket_64_50krocket_ 48_20krocket_59_30kr ocket_64_50kminirock et_65_60kminirocket_ 59_30kminirocket_60_ 40krocket_58_40krock et_58_30krocket_65_6 0kminirocket_48_20km inirocket_302_30kroc ket_304_30kminirocke t_202_20krocket_302_ 30krocket_202_30kroc ket_202_30krocket_20 2_30krocket_304_30kr ocket 0.02
英語(論文から抽出)日本語訳スコア
18 Chang Wei Tan et al. 18 Chang Wei Tanら。 0.73
Fig. 11: Average ranks of the best variant MultiRocket in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 11: 109 UCRデータセットの30の再サンプルに対するSOTA TSCアルゴリズムと比較して、最高の変種マルチロケットの平均ランク。 0.60
(a) (b) 12: Pairwise (a) (b) 12:ペアワイズ 0.81
Fig. variants minirocket 304 30k and (b) minirocket 202 20k, againts HC-TDE on 128 UCR datasets. フィギュア。 minirocket 304 30k および (b) minirocket 202 20k は 128 ucr データセット上で hc-tde を再開する。 0.56
comparison of of MultiRocket, (a) in terms of accuracy 比較 ですから マルチロケットにおいて,(a)精度の点で 0.66
5 Conclusion We introduce MultiRocket, by expanding the set of features applied to the convolutional outputs in Rocket and MiniRocket, making it the current most accurate univariate TSC algorithm on the datasets in the UCR archive. 5 結論 ロケットとミニロケットの畳み込み出力に適用される機能のセットを拡大することにより、マルチロケットを導入し、UCRアーカイブのデータセット上で現在の最も正確な一変量TSCアルゴリズムにします。 0.72
While approximately 10 times slower than MiniRocket, MultiRocket is still much faster than other state-of-the-art time series classification algorithms. MiniRocketの約10倍遅いが、MultiRocketは他の最先端の時系列分類アルゴリズムよりもはるかに高速である。 0.78
In this work we have only investigated a small set of 26 time series summary features. この研究では、26時間系列の要約機能の小さなセットだけを調査しました。 0.73
Exploring a wider range of summary features is a promising direction for further investigation. より広い範囲の要約機能を探索することは、さらなる調査のための有望な方向です。 0.63
The effective two most あらすじ 有効 2つ 0.56
found, PPV and LongStretch above 0, have both been developed specifically for the task of extracting useful summary information from time series convolutional outputs. 時系列畳み込み出力から有用な要約情報を抽出するためのタスクとして,ppvとlongstretchが0以上開発されてきた。 0.70
As the application of convolutions to time series is designed to highlight useful properties of the series, it seems likely that further development of 時系列への畳み込みの適用は、シリーズの有用な特性を強調するように設計されているため、さらなる発展が期待できる。 0.71
features we have 12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFHC-TD Eminirocket_304_30k0 .00.20.40.60.81.0HC- TDE0.00.20.40.60.81. 0minirocket_304_30kH C-TDE is better hereminirocket_304_3 0k is better hereSemgHandMovement Ch2 (-0.161)minirocket_3 04_30k vs HC-TDE 58/6/450.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 202_20kHC-TDE is better hereminirocket_202_2 0k is better hereSemgHandMovement Ch2 (-0.180)minirocket_2 02_20k vs HC-TDE 62/5/42 特徴は 持ってる 12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFHC-TD Eminirocket_304_30k0 .00.20.40.60.81.0HC- TDE0.00.20.40.60.81. 0minirocket_304_30kH C-TDEはここでより優れています。 0.44
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
19 methods to isolate the relevant signals in these convolutions will be highly productive. 19 これらの畳み込みの中で 関連するシグナルを分離する方法は 非常に生産的です 0.74
Further promising future directions include exploring the utility of MultiRocket on multivariate time series, regression tasks (Tan et al., 2020) and beyond time series data. 今後、MultiRocketを多変量時系列で活用すること、回帰タスク(Tan et al., 2020)、時系列データを超えることなどが期待されている。 0.67
Acknowledgements We would like to thank Professor Eamonn Keogh, Professor Tony Bagnall and their team who have provided the UCR time series classification archive (Dau et al., 2019) and making a comprehensive benchmark results widely available. Acnowledgements Eamonn Keogh教授、Tony Bagnall教授、そして彼らのチームがUCR時系列分類アーカイブ(Dau et al., 2019)を提供し、包括的なベンチマーク結果を広く提供してくれたことに感謝します。 0.75
Finally, we thank Fawaz et al. 最後に、fawazらに感謝します。 0.49
(2019a) for providing open source code to draw critical difference diagrams. (2019a) 重要な差分図を描くためのオープンソースコードを提供する。 0.74
This research has been supported by Australian Research Council grant DP210100072. この研究は、オーストラリア研究評議会がDP210100072を認可している。 0.63
References Bagnall A, Lines J, Bostrom A, Large J, Keogh E (2017) The great time series classification bake off: a review and experimental evaluation of recent algorithmic advances. 参考文献 Bagnall A, Lines J, Bostrom A, Large J, Keogh E (2017) The great time series classification bake off: a review and experimental evaluation of recent algorithmic advances。 0.74
Data Mining and Knowledge Discovery 31(3):606–660 Bagnall A, Flynn M, Large J, Lines J, Middlehurst M (2020) On the usage and performance of the hierarchical vote collective of transformation-based ensembles version 1.0 (HIVE-COTE 1.0). データマイニングとナレッジディスカバリー 31(3):606–660 Bagnall A, Flynn M, Large J, Lines J, Middlehurst M (2020) 変換ベースのアンサンブルバージョン1.0(HIVE-COTE 1.0)の階層的投票集団の使用とパフォーマンスについて。 0.79
arXiv preprint arXiv:200406069 arXiv preprint arXiv:200406069 0.78
Breiman L (2001) Random forests. Breiman L (2001) 無作為な森林。 0.84
Machine learning 45(1):5–32 Dau HA, Bagnall A, Kamgar K, Yeh CCM, Zhu Y, Gharghabi S, Ratanamahatana CA, Keogh E (2019) The UCR time series archive. 機械学習 45(1):5–32 Dau HA, Bagnall A, Kamgar K, Yeh CCM, Zhu Y, Gharghabi S, Ratanamahatana CA, Keogh E (2019) UCR時系列アーカイブ。 0.85
IEEE/CAA Journal of Automatica Sinica 6(6):1293–1305 IEEE/CAA Journal of Automatica Sinica 6(6):1293–1305 0.81
Dempster A, Petitjean F, Webb GI (2020a) Rocket: Exceptionally fast and accurate time series classification using random convolutional kernels. Dempster A, Petitjean F, Webb GI (2020a) Rocket: ランダム畳み込みカーネルを用いた例外的に高速で正確な時系列分類。 0.82
Data Mining and Knowledge Discovery 34(5):1454–1495 データマイニングと知識発見 34(5):1454–1495 0.84
Dempster A, Schmidt DF, Webb GI (2020b) Minirocket: A very fast (almost) deterministic transform for time series classification. Dempster A, Schmidt DF, Webb GI (2020b) Minirocket: 時系列分類のための非常に高速(ほぼ)決定論的変換。 0.87
arXiv preprint arXiv:201208791 arXiv preprint arXiv:201208791 0.78
Demˇsar J (2006) Statistical comparisons of classifiers over multiple data sets. デムザールj (2006) 複数データセット上の分類器の統計的比較。 0.85
Journal of Machine learning research 7(Jan):1–30 Journal of Machine Learning Research 7 (Jan):1–30 0.91
Deng H, Runger G, Tuv E, Vladimir M (2013) A time series forest for classi- Deng H, Runger G, Tuv E, Vladimir M (2013) A time series forest for classi- 0.89
fication and feature extraction. フィケーションと特徴抽出。 0.62
Information Sciences 239:142–153 情報科学 239:142–153 0.54
Fawaz HI, Forestier G, Weber J, Idoumghar L, Muller PA (2019a) Deep learning for time series classification: a review. Fawaz HI, Forestier G, Weber J, Idoumghar L, Muller PA (2019a) 時系列分類のためのディープラーニング:レビュー。 0.79
Data Min Knowl Discov 33(4):917– 963 Data Min Knowl Discov 33(4):917–963 0.98
Fawaz HI, Lucas B, Forestier G, Pelletier C, Schmidt DF, Weber J, Webb GI, Idoumghar L, Muller PA, Petitjean F (2019b) Inceptiontime: Finding alexnet for time series classification. Fawaz HI, Lucas B, Forestier G, Pelletier C, Schmidt DF, Weber J, Webb GI, Idoumghar L, Muller PA, Petitjean F (2019b) Inceptiontime: Finding alexnet for Time Series classification。 0.86
arXiv preprint arXiv:190904939 arXiv preprint arXiv:190904939 0.78
Fulcher BD, Jones NS (2017) hctsa: A computational framework for automated time-series phenotyping using massive feature extraction. Fulcher BD, Jones NS (2017) hctsa: 大規模な特徴抽出を用いた自動時系列表現の計算フレームワーク。 0.84
Cell systems 5(5):527–531 細胞系 5(5):527–531 0.79
英語(論文から抽出)日本語訳スコア
20 Chang Wei Tan et al. 20 Chang Wei Tanら。 0.73
Hills J, Lines J, Baranauskas E, Mapp J, Bagnall A (2014) Classification of time series by shapelet transformation. Hills J, Lines J, Baranauskas E, Mapp J, Bagnall A (2014) シェイプレット変換による時系列の分類。 0.81
Data Min Knowl Discov 28(4):851– 881 Data Min Knowl Discov 28(4):851–881 0.97
Lam SK, Pitrou A, Seibert S (2015) Numba: A llvm-based python jit compiler. Lam SK, Pitrou A, Seibert S (2015) Numba: llvmベースのpython jitコンパイラ。 0.83
In: Proceedings of the Second Workshop on the LLVM Compiler Infrastructure in HPC, pp 1–6 In: Proceeds of the Second Workshop on the LLVM Compiler Infrastructure in HPC, pp 1-6 0.92
Lines J, Bagnall A (2015) Time series classification with ensembles of elastic Lines J, Bagnall A (2015) 弾性のアンサンブルを用いた時系列分類 0.85
distance measures. Data Min Knowl Discov 29(3):565–592 距離測定。 Data Min Knowl Discov 29(3):565–592 0.78
Lines J, Taylor S, Bagnall A (2016) HIVE-COTE: The hierarchical vote collective of transformation-based ensembles for time series classification. Lines J, Taylor S, Bagnall A (2016) HIVE-COTE: 時系列分類のための変換ベースのアンサンブルの階層的投票集合。 0.80
In: Proceedings of the 16th IEEE international conference on data mining (ICDM), pp 1041–1046 In: Proceedings of the 16th IEEE International Conference on Data mining (ICDM), pp 1041–1046 0.92
Lubba CH, Sethi SS, Knaute P, Schultz SR, Fulcher BD, Jones NS (2019) catch22: Canonical time-series characteristics. Lubba CH, Sethi SS, Knaute P, Schultz SR, Fulcher BD, Jones NS (2019) catch22: Canonical 時系列特性。 0.86
Data Mining and Knowledge Discovery 33(6):1821–1852 データマイニングと知識発見33(6):1821–1852 0.84
Lucas B, Shifaz A, Pelletier C, O’Neill L, Zaidi N, Goethals B, Petitjean F, Webb GI (2019) Proximity forest: an effective and scalable distance-based classifier for time series. Lucas B, Shifaz A, Pelletier C, O’Neill L, Zaidi N, Goethals B, Petitjean F, Webb GI (2019) Proximity Forest: 時系列のための効率的でスケーラブルな距離ベースの分類器。 0.91
Data Min Knowl Discov 33(3):607–635 Data Min Knowl Discov 33(3):607–635 0.90
Middlehurst M, Large J, Bagnall A (2020a) The canonical interval forest (CIF) ミドルハースト M, Large J, Bagnall A (2020a) The canonical interval Forest (CIF) 0.79
classifier for time series classification. 時系列分類のための分類器。 0.70
arXiv preprint arXiv:200809172 arXiv preprint arXiv:200809172 0.78
Middlehurst M, Large J, Cawley G, Bagnall A (2020b) The temporal dictionary ensemble (TDE) classifier for time series classification. Middlehurst M, Large J, Cawley G, Bagnall A (2020b) 時系列分類のための時系列辞書アンサンブル (TDE) 分類器。 0.87
In: The European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases In: The European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (英語) 0.95
Pedregosa F, Varoquaux G, Gramfort A, Michel V, Thirion B, Grisel O, Blondel M, Prettenhofer P, Weiss R, Dubourg V, et al. Pedregosa F, Varoquaux G, Gramfort A, Michel V, Thirion B, Grisel O, Blondel M, Prettenhofer P, Weiss R, Dubourg V, et al。 0.83
(2011) Scikit-learn: Machine learning in python. (2011) Scikit-learn: pythonの機械学習。 0.95
the Journal of machine Learning research 12:2825– 2830 journal of machine learning research 12:2825–2830 0.90
Sch¨afer P (2015) Scalable time series classification. Sch safer P (2015) スケーラブルな時系列分類。 0.72
Data Min Knowl Discov Data Min Knowl Discov 0.85
pp 1–26 Shifaz A, Pelletier C, Petitjean F, Webb GI (2019) Ts-chief: a scalable and accurate forest algorithm for time series classification. pp 1-26 Shifaz A, Pelletier C, Petitjean F, Webb GI (2019) Ts-chief: 時系列分類のためのスケーラブルで正確な森林アルゴリズム。 0.75
arXiv preprint arXiv:190610329 arXiv preprint arXiv:190610329 0.78
Tan CW, Bergmeir C, Petitjean F, Webb GI (2020) Time series extrinsic Tan CW, Bergmeir C, Petitjean F, Webb GI (2020) Time series extrinsic 0.85
regression. arXiv preprint arXiv:200612672 回帰だ arXiv preprint arXiv:200612672 0.64
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
21 A Full list of features used in MultiRocket 21 MultiRocketで使われる機能の完全なリスト 0.86
Feature Feature Name ID, f 特徴 特徴名 ID、f 0.74
Fixed Features per kernel 修正 カーネルごとの特徴 0.70
Random Features per kernel カーネルごとのランダム機能 0.76
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0.85
26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 0.85
Base features DN HistogramMode 5 DN HistogramMode 10 CO f1ecac CO FirstMin ac CO HistogramAMI even 2 5 CO trev 1 num MD hrv classic pnn40 SB BinaryStats mean longstretch1 SB TransitionMatrix 3ac sumdiagcov PD PeriodicityWang th0 01 CO Embed2 Dist tau d expfit meandiff IN AutoMutualInfoStats 40 gaussian fmmi FC LocalSimple mean1 tauresrat DN OutlierInclude p 001 mdrmd DN OutlierInclude n 001 mdrmd SP Summaries welch rect area 5 1 SB BinaryStats diff longstretch0 SB MotifThree quantile hh SC FluctAnal 2 rsrangefit 50 1 logi prop r1 SC FluctAnal 2 dfa 50 1 2 logi prop r1 SP Summaries welch rect centroid FC LocalSimple mean3 stderr LongStretch above 0 PPV Max Mean 基本的特徴 DN HistogramMode 5 DN HistogramMode 10 CO f1ecac CO FirstMin ac CO HistogramAMI even 2 5 CO trev 1 num MD hrv classic pnn40 SB BinaryStats mean longstretch1 SB TransitionMatrix 3ac sumdiagcov PD PeriodicityWang th0 01 CO Embed2 Dist tau d expfit meandiff IN AutoMutualInfoStats 40 gaussian fmmi FC LocalSimple mean1 tauresrat DN OutlierInclude p 001 mdrmd DN OutlierInclude n 001 mdrmd SP Summaries welch rect area 5 1 SB BinaryStats diff longstretch0 SB MotifThree quantile hh SC FluctAnal 2 rsrangefit 50 1 logi prop r1 SC FluctAnal 2 dfa 50 1 2 logi prop r1 SP Summaries welch rect centroid FC LocalSimple mean3 stderr LongStretch above 0 PPV Max Mean 0.86
Features paired with PPV PPVと組み合わせた特徴 0.89
PPV, DN HistogramMode 5 PPV, DN HistogramMode 10 PPV, CO f1ecac PPV, CO FirstMin ac PPV, CO HistogramAMI even 2 5 PPV, CO trev 1 num PPV, MD hrv classic pnn40 PPV, SB BinaryStats mean longstretch1 PPV, SB TransitionMatrix 3ac sumdiagcov PPV, PD PeriodicityWang th0 01 PPV, CO Embed2 Dist tau d expfit meandiff PPV, IN AutoMutualInfoStats 40 gaussian fmmi PPV, FC LocalSimple mean1 tauresrat PPV, DN OutlierInclude p 001 mdrmd PPV, DN OutlierInclude n 001 mdrmd PPV, SP Summaries welch rect area 5 1 PPV, SB BinaryStats diff longstretch0 PPV, SB MotifThree quantile hh PPV, SC FluctAnal 2 rsrangefit 50 1 logi prop r1 PPV, SC FluctAnal 2 dfa 50 1 2 logi prop r1 PPV, SP Summaries welch rect centroid PPV, FC LocalSimple mean3 stderr PPV, LongStretch above 0 PPV, PPV PPV, DN HistogramMode 5 PPV, DN HistogramMode 10 PPV, CO f1ecac PPV, CO FirstMin ac PPV, CO HistogramAMI even 2 5 PPV, CO trev 1 num PPV, MD hrv classic pnn40 PPV, SB BinaryStats mean longstretch1 PPV, SB TransitionMatrix 3ac sumdiagcov PPV, PD PeriodicityWang th0 01 PPV, CO Embed2 Dist tau d expfit meandiff PPV, IN AutoMutualInfoStats 40 gaussian fmmi PPV, FC LocalSimple mean1 tauresrat PPV, DN OutlierInclude p 001 mdrmd PPV, DN OutlierInclude n 001 mdrmd PPV, SP Summaries welch rect area 5 1 PPV, SB BinaryStats diff longstretch0 PPV, SB MotifThree quantile hh PPV, SC FluctAnal 2 rsrangefit 50 1 logi prop r1 PPV, SC FluctAnal 2 dfa 50 1 2 logi prop r1 PPV, SP Summaries welch rect centroid PPV, FC LocalSimple mean3 stderr PPV, LongStretch above 0 PPV, PPV 0.95
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0.85
2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
英語(論文から抽出)日本語訳スコア
22 Chang Wei Tan et al. 22 Chang Wei Tanら。 0.73
50 51 52 53 50 51 52 53 0.85
54 55 56 57 54 55 56 57 0.85
58 59 60 61 58 59 60 61 0.85
62 63 64 65 62 63 64 65 0.85
101 201 202 101 201 202 0.85
203 205 301 203 205 301 0.85
302 303 PPV, Max PPV, Mean 302 303 PPV, Max PPV, Mean 0.85
Other fixed feature combinations その他の固定機能の組み合わせ 0.68
SB MotifThree quantile hh, SB MotifThree quantile hh。 0.80
LongStretch above 0, LongStretch above 0, 0.85
LongStretch above 0, LongStretch above 0, 0.85
LongStretch above 0, LongStretch above 0, 0.85
SB BinaryStats mean longstretch1, SB BinaryStatsはlongstretch1, 0.95
SB BinaryStats mean longstretch1, SB BinaryStatsはlongstretch1, 0.95
SB BinaryStats mean longstretch1, SB BinaryStatsはlongstretch1, 0.95
All Catch22 PPV, SB MotifThree quantile hh PPV, CO HistogramAMI even 2 5 PPV, CO HistogramAMI even 2 5 PPV, SB MotifThree quantile hh, CO HistogramAMI even 2 5 SB BinaryStats mean longstretch1, SB MotifThree quantile hh, CO HistogramAMI even 2 5 PPV, SB MotifThree quantile hh PPV, CO HistogramAMI even 2 5 PPV, SB MotifThree quantile hh, CO HistogramAMI even 2 5 LongStretch above 0, SB MotifThree quantile hh, CO HistogramAMI even 2 5 LongStretch above 0, Max LongStretch above 0, SB BinaryStats mean longstretch1, SB MotifThree quantile hh, CO HistogramAMI even 2 5 PPV, LongStretch above 0, SB BinaryStats mean longstretch1, Motif3, CO HistogramAMI even 2 5 PPV, LongStretch above 0, SB BinaryStats mean longstretch1, Motif3, CO HistogramAMI even 2 5, Max All Catch22 PPV, SB MotifThree quantile hh PPV, CO HistogramAMI even 2 5 PPV, CO HistogramAMI even 2 5 PPV, SB MotifThree quantile hh, CO HistogramAMI even 2 5 SB BinaryStats mean longstretch1, SB MotifThree quantile hh, CO HistogramAMI even 2 5 PPV, SB MotifThree quantile hh PPV, CO HistogramAMI even 2 5 PPV, SB MotifThree quantile hh, CO HistogramAMI even 2 5 LongStretch above 0, SB MotifThree quantile hh, CO HistogramAMI even 2 5 LongStretch above 0, Max LongStretch above 0, SB BinaryStats mean longstretch1, SB MotifThree quantile hh, CO HistogramAMI even 2 5 PPV, LongStretch above 0, SB BinaryStats mean longstretch1, Motif3, CO HistogramAMI even 2 5 PPV, LongStretch above 0, SB BinaryStats mean longstretch1, Motif3, CO HistogramAMI even 2 5, Max 0.89
Random feature combinations Assigns a random feature per kernel, sampled from {4, 7, 17, 22, 23, 24} Assigns two random features per kernel, sampled from {4, 7, 17, 22, 23, 24} Assigns PPV and a random feature per kernel, sampled from {4, 7, 17, 22, 24} Assigns LongStretch above 0 and a random feature per kernel, sampled from {4, 7, 17, 23, 24} Assigns PPV and a random feature per kernel, sampled from {4, 7, 17, 24} Assigns three random features per kernel, sampled from {4, 7, 17, 22, 23, 24} Assigns PPV and two random features per kernel, sampled from {4, 7, 17, 22, 24} Assigns LongStretch above 0 and two random features per kernel, sampled from {4, 7, 17, 23, 24} ランダム特徴組合せ Assigns a random feature per kernel, sampled from {4, 7, 17, 22, 23, 24} Assigns two random features per kernel, sampled from {4, 7, 17, 22, 23, 24} Assigns PPV and a random feature per kernel, sampled from {4, 7, 17, 22, 24} Assigns LongStretch above 0 and a random feature per kernel, sampled from {4, 7, 17, 23, 24} Assigns PPV and a random feature per kernel, sampled from {4, 7, 17, 24} Assigns three random features per kernel, sampled from {4, 7, 17, 22, 23, 24} Assigns PPV and two random features per kernel, sampled from {4, 7, 17, 22, 24} Assigns LongStretch above 0 and two random features per kernel, sampled from {4, 7, 17, 23, 24} 0.81
2 2 22 3 3 2 2 22 3 3 0.85
3 4 3 3 3 4 3 4 3 3 3 4 0.85
3 2 4 5 6 0 3 2 4 5 6 0 0.85
0 1 1 1 0 1 0 1 1 1 0 1 0.85
1 0 0 0 0 0 1 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 1 0 0 0 0 0 1 0.85
2 1 1 1 3 2 2 1 1 1 3 2 0.85
2 2 0.85
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
23 304 305 23 304 305 0.85
Assigns PPV, LongStretch above 0 and a random feature per kernel, sampled from {4, 7, 17, 24} Assigns PPV and a random feature per kernel, sampled from {4, 7, 17, 24} PPV, LongStretch over 0 and a random feature per kernel, sampled from {4, 7, 17, 24} Assigns PPV and a random feature per kernel, sampled from {4, 7, 17, 24} 0.82
2 1 1 2 Table 2: Full list of feature combinations used in MultiRocket. 2 1 1 2 表2: MultiRocketで使用される機能の組み合わせの完全なリスト。 0.84
英語(論文から抽出)日本語訳スコア
24 Chang Wei Tan et al. 24 Chang Wei Tanら。 0.73
B Rocket f =48 with n=40,000 features B Rocket f =48, n=40,000 特徴 0.67
(a) (b) (c) (a) (b) (c) 0.85
(d) (e) Fig. (d) (e) フィギュア。 0.71
13: (a) Average ranks of MultiRocket (f =48 with n = 20,000 and n = 40,000) in terms of accuracy versus Rocket and MiniRocket on the 128 UCR datasets. 13: (a) 平均的なMultiRocket(f =48、n = 20,000、n = 40,000)の精度は、128UCRデータセット上のRocketとMiniRocketと比較できる。 0.81
Pairwise comparison of rocket 48 40k in terms of accuracy against (b) Rocket, (c) MiniRocket, (d) rocket 48 20k and (e) minirocket 48 20k on the 128 UCR datasets. b)ロケット4840k、(c)ミニロケット、(d)ロケット4820k、(e)ミニロケット4820kの精度を128UCRデータセットと比較した。
訳抜け防止モード: b)ロケットに対する精度の点でロケット48 40kの対比。 (c)ミニロケット、(d)ロケット48 20k そして128 UCRデータセット上の(e)ミニロケット48 20k。
0.78
12345RocketMiniRocke trocket_48_20krocket _48_40kminirocket_48 _20k0.00.20.40.60.81 .0Rocket0.00.20.40.6 0.81.0rocket_48_40kR ocket is better hererocket_48_40k is better hererocket_48_40k vs Rocket 66/22/400.00.20.40.6 0.81.0MiniRocket0.00 .20.40.60.81.0rocket _48_40kMiniRocket is better hererocket_48_40k is better hererocket_48_40k vs MiniRocket 66/23/390.00.20.40.6 0.81.0rocket_48_20k0 .00.20.40.60.81.0roc ket_48_40krocket_48_ 20k is better hererocket_48_40k is better hererocket_48_40k vs rocket_48_20k 55/41/320.00.20.40.6 0.81.0minirocket_48_ 20k0.00.20.40.60.81. 0rocket_48_40kminiro cket_48_20k is better hererocket_48_40k is better hererocket_48_40k vs minirocket_48_20k 46/27/55 12345RocketMiniRocke trocket_48_20krocket _48_40kminirocket_48 _20k0.00.20.40.60.81 .0Rocket0.00.20.40.6 0.81.0rocket_48_40kR ocket is better hererocket_48_40k is better hererocket_48_40k vs Rocket 66/22/400.00.20.40.6 0.81.0MiniRocket0.00 .20.40.60.81.0rocket _48_40kMiniRocket is better hererocket_48_40k is better hererocket_48_40k vs MiniRocket 66/23/390.00.20.40.6 0.81.0rocket_48_20k0 .00.20.40.60.81.0roc ket_48_40krocket_48_ 20k is better hererocket_48_40k is better hererocket_48_40k vs rocket_48_20k 55/41/320.00.20.40.6 0.81.0minirocket_48_ 20k0.00.20.40.60.81. 0rocket_48_40kminiro cket_48_20k is better hererocket_48_40k is better hererocket_48_40k vs minirocket_48_20k 46/27/55 0.17
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
25 C Variants of MultiRocket vs SOTA TSC algorithms 25 MultiRocket vs SOTA TSCアルゴリズムのC変数 0.82
Fig. 14: Average rank of Rocket with all catch22 features (f =52), in terms of accuracy compared with SOTA TSC algorithms on 109 UCR datasets. フィギュア。 14: 109 UCRデータセット上のSOTA TSCアルゴリズムと比較して、すべてのcatch22機能(f =52)を持つロケットの平均ランク。 0.60
rocket C22 220k is slow and perform worse than Rocket. ロケットC22 220kはロケットよりも遅く、性能も悪い。 0.77
Fig. 15: Average rank of MiniRocket with n = 40,000 features in terms of accuracy compared with SOTA TSC algorithms on 109 UCR datasets. フィギュア。 15: 109 UCRデータセット上のSOTA TSCアルゴリズムと比較して,n = 40,000の精度を持つMiniRocketの平均ランク。 0.64
Fig. 16: Average ranks of MultiRocket (f =302 with MiniRocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 16: 平均的なMultiRocket(f=302とMiniRocketカーネル)は精度で、SOTA TSCアルゴリズムは109UCRデータセットの30以上のサンプルである。 0.63
12345678910Proximity ForestCIFResNetrocke t_C22_220kTDEIncepti onTimeROCKETMiniRock etTS-CHIEFHC-TDE1234 5678910ProximityFore stCIFResNetTDEIncept ionTimeROCKETMiniRoc ketTS-CHIEFMiniRocke t_40kHC-TDE123456789 10ProximityForestCIF ResNetTDEInceptionTi meROCKETMiniRocketTS -CHIEFHC-TDEminirock et_302_30k 12345678910Proximity ForestCIFResNetrocke t_C22_220kTDEIncepti onTimeROCKETMiniRock etTS-CHIEFHC-TDE1234 5678910ProximityFore stCIFRETMiniRocketTS -CHIEFMiniRocket_40k HC-TDE12345678910Pro ximityForestCIFRENet TDEInceptionTimeROCK ETMiniRocketTS-CHIEF HC-TDEminirocket_302 _30k 0.03
英語(論文から抽出)日本語訳スコア
26 Chang Wei Tan et al. 26 Chang Wei Tanら。 0.73
Fig. 17: Average ranks of MultiRocket (f =202 with MiniRocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 17: 平均的なMultiRocket(f=202とMiniRocketカーネル)は精度で、SOTA TSCアルゴリズムは109UCRデータセットの30以上のサンプルである。 0.62
Fig. 18: Average ranks of MultiRocket (f =202 with MiniRocket kernels) with n=40,000 features in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 18: 平均的なMultiRocket(f=202とMiniRocketカーネル)のランクは、精度でn=40,000で、SOTA TSCアルゴリズムは109UCRデータセットの30以上のサンプルである。 0.57
Fig. 19: Average ranks of MultiRocket (f =48 with MiniRocket kernels), in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 19: MultiRocketの平均ランク(MiniRocketカーネルでf = 48)は、109 UCRデータセットの30リサンプル以上のSOTA TSCアルゴリズムと比較して正確である。 0.63
Fig. 20: Average ranks of the MultiRocket (f =48 with MiniRocket kernels) with n=40,000 features in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 20: 平均的なMultiRocket(f=48とMiniRocketカーネル)のランクは、精度でn=40,000で、SOTA TSCアルゴリズムは109UCRデータセットの30以上のサンプルである。 0.58
12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFHC-TD Eminirocket_202_20k1 2345678910ProximityF orestCIFResNetTDEInc eptionTimeROCKETMini RocketTS-CHIEFHC-TDE minirocket_202_40k12 345678910ProximityFo restCIFResNetTDEInce ptionTimeROCKETMiniR ocketTS-CHIEFHC-TDEm inirocket_48_20k1234 5678910ProximityFore stCIFResNetTDEIncept ionTimeROCKETMiniRoc ketTS-CHIEFHC-TDEmin irocket_48_40k 12345678910proximity forestnettdeinceptio ntimerocketminirocke tts-chiefhc-tdeminir ocket_202_20k1234567 8910proximityforestc ifresnettdeinception timerocketminirocket ts-chiefhc-tdeminiro cket_202_40k12456789 10proximityforestcif resnettdeinceptionti merocketminirocketts -chiefhc-tdeminirock et_48_40k 0.01
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
27 Fig. 21: Average ranks of MultiRocket (f =58 with MiniRocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. 27 フィギュア。 21: 平均的なMultiRocket(f=58とMiniRocketカーネル)は精度で、SOTA TSCアルゴリズムは109UCRデータセットの30以上のサンプルである。 0.70
Fig. 22: Average ranks of MultiRocket (f =60 with MiniRocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 22: MultiRocketの平均ランク(MiniRocketカーネルでf = 60)は、109 UCRデータセットの30リサンプル以上のSOTA TSCアルゴリズムと比較して正確である。 0.62
Fig. 23: Average ranks of MultiRocket (f =60 with MiniRocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 23: 平均的なMultiRocket(f=60とMiniRocketカーネル)は精度で、SOTA TSCアルゴリズムは109のUCRデータセットの30以上のサンプルである。 0.63
Fig. 24: Average ranks of MultiRocket (f =304 with Rocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 24: 平均的なMultiRocket(f=304とRocketカーネル)の精度は、SOTA TSCアルゴリズムが109UCRデータセットの30サンプル以上である。 0.60
12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFHC-TD Eminirocket_58_30k12 345678910ProximityFo restCIFTDEResNetInce ptionTimeROCKETMiniR ocketTS-CHIEFminiroc ket_60_40kHC-TDE1234 5678910ProximityFore stCIFTDEResNetIncept ionTimeROCKETMiniRoc ketTS-CHIEFminirocke t_60_40kHC-TDE123456 78910ProximityForest CIFResNetTDEInceptio nTimeROCKETMiniRocke tTS-CHIEFrocket_304_ 30kHC-TDE 12345678910 ProximityForestCIFRe sNetTDEInceptionTime ROCKETMiniRocketTS-C HIEFHC-TDEminirocket _58_30k12345678910 ProximityForestCIFTD EResNetInceptionTime ROCKETMiniRocketTS-C HIEFminirocket_60_40 kHC-TDE12345678910 ProximityForestCIFTD EResNetInceptionTime ROCKETMiniRocketTS-C HIEFminirocket_60_40 kHC-TDE12345678910 ProximityForestCIFRe sNetTDEInceptionTime ROCKETMiniRocket-CHI EFminirocket 0.01
英語(論文から抽出)日本語訳スコア
28 Chang Wei Tan et al. 28 Chang Wei Tanら。 0.73
Fig. 25: Average ranks of MultiRocket (f =202 with Rocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 25: 平均的なMultiRocket(f=202とRocketカーネル)の精度は、SOTA TSCアルゴリズムが109UCRデータセットの30サンプル以上である。 0.60
Fig. 26: Average ranks of MultiRocket (f =201 with Rocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 26: 平均的なMultiRocket(f=201とRocketカーネル)の精度は、SOTA TSCアルゴリズムが109UCRデータセットの30サンプル以上である。 0.60
Fig. 27: Average ranks of MultiRocket (f =48 with Rocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 27: 109 UCRデータセットの30リサンプルに対するSOTA TSCアルゴリズムと比較して、マルチロケットの平均ランク(ロケットカーネルでf = 48)。 0.58
Fig. 28: Average ranks of MultiRocket (f =58 with Rocket kernels) in terms of accuracy versus SOTA TSC algorithms over 30 resamples of 109 UCR datasets. フィギュア。 28: 109 UCRデータセットの30リサンプルに対するSOTA TSCアルゴリズムと比較して、マルチロケットの平均ランク(ロケットカーネルでf =58)。 0.58
12345678910Proximity ForestCIFResNetTDEIn ceptionTimeROCKETMin iRocketTS-CHIEFrocke t_202_20kHC-TDE12345 678910ProximityFores tCIFResNetTDEIncepti onTimeROCKETMiniRock etrocket_201_20kTS-C HIEFHC-TDE1234567891 0ProximityForestCIFR esNetTDEInceptionTim eROCKETrocket_48_20k MiniRocketTS-CHIEFHC -TDE12345678910Proxi mityForestCIFResNetT DEInceptionTimeROCKE TMiniRocketrocket_58 _30kTS-CHIEFHC-TDE 12345678910 ProximityForestCIFRe sNetTDEInceptionTime ROCKETMiniRocketTS-C HIEFrocket_202_20kHC -TDE12345678910 ProximityForestCIFRe sNetTDEInceptionTime ROCKETMiniRocket201_ 20kTS-CHIEFHC-TDE123 45678910 ProximityForestCIFRe sNetTDEInceptionTime ROCKETrocket_48_20kM iniRocketTS-CHIEFHC- TDE12345678910 ProximityForestCIFRe sNetTDEInceptionTime ROCKETMiniRocketTS-C HIEFHC-TDE 0.01
英語(論文から抽出)日本語訳スコア
Title Suppressed Due to Excessive Length 過剰な長さによるタイトルの抑制 0.73
29 D Pairwise comparison of MultiRocket variants 29 D Pairwise comparison of MultiRocket variants 0.85
(a) (b) (c) (a) (b) (c) 0.85
(d) (e) (f) (d) (e) (f) 0.85
Fig. 29: Pairwise comparison of MultiRocket variants against HC-TDE on 30 resamples of 109 UCR datasets. フィギュア。 29: 109 の UCR データセットの 30 の再サンプルで HC-TDE と MultiRocket の変種を対比する。 0.57
0.00.20.40.60.81.0HC -TDE0.00.20.40.60.81 .0minirocket_302_30k HC-TDE is better hereminirocket_302_3 0k is better hereminirocket_302_3 0k vs HC-TDE 56/6/470.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 202_40kHC-TDE is better hereminirocket_202_4 0k is better hereminirocket_202_4 0k vs HC-TDE 59/6/440.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 48_20kHC-TDE is better hereminirocket_48_20 k is better hereminirocket_48_20 k vs HC-TDE 52/6/510.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 48_40kHC-TDE is better hereminirocket_48_40 k is better hereminirocket_48_40 k vs HC-TDE 52/6/510.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 58_30kHC-TDE is better hereminirocket_58_30 k is better hereminirocket_58_30 k vs HC-TDE 56/5/480.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 60_40kHC-TDE is better hereminirocket_60_40 k is better hereminirocket_60_40 k vs HC-TDE 50/5/54 0.00.20.40.60.81.0HC -TDE0.00.20.40.60.81 .0minirocket_302_30k HC-TDE is better hereminirocket_302_3 0k is better hereminirocket_302_3 0k vs HC-TDE 56/6/470.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 202_40kHC-TDE is better hereminirocket_202_4 0k is better hereminirocket_202_4 0k vs HC-TDE 59/6/440.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 48_20kHC-TDE is better hereminirocket_48_20 k is better hereminirocket_48_20 k vs HC-TDE 52/6/510.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 48_40kHC-TDE is better hereminirocket_48_40 k is better hereminirocket_48_40 k vs HC-TDE 52/6/510.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 58_30kHC-TDE is better hereminirocket_58_30 k is better hereminirocket_58_30 k vs HC-TDE 56/5/480.00.20.40.60 .81.0HC-TDE0.00.20.4 0.60.81.0minirocket_ 60_40kHC-TDE is better hereminirocket_60_40 k is better hereminirocket_60_40 k vs HC-TDE 50/5/54 0.18
英語(論文から抽出)日本語訳スコア
30 Chang Wei Tan et al. 30 Chang Wei Tanら。 0.73
(a) (b) (c) (a) (b) (c) 0.85
(d) (e) (f) (d) (e) (f) 0.85
Fig. 30: Pairwise comparison of MultiRocket variants against MiniRocket on 30 resamples of 109 UCR datasets. フィギュア。 30: 109のUCRデータセットの30再サンプルでMiniRocketとMultiRocketの変種を対比する。 0.61
0.00.20.40.60.81.0Mi niRocket0.00.20.40.6 0.81.0minirocket_302 _30kMiniRocket is better hereminirocket_302_3 0k is better hereminirocket_302_3 0k vs MiniRocket 74/4/310.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_202_40kMiniRocke t is better hereminirocket_202_4 0k is better hereminirocket_202_4 0k vs MiniRocket 74/4/310.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_48_20kMiniRocket is better hereminirocket_48_20 k is better hereminirocket_48_20 k vs MiniRocket 68/4/370.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_48_40kMiniRocket is better hereminirocket_48_40 k is better hereminirocket_48_40 k vs MiniRocket 68/4/370.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_58_30kMiniRocket is better hereminirocket_58_30 k is better hereminirocket_58_30 k vs MiniRocket 66/4/390.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_60_40kMiniRocket is better hereminirocket_60_40 k is better hereminirocket_60_40 k vs MiniRocket 63/4/42 0.00.20.40.60.81.0Mi niRocket0.00.20.40.6 0.81.0minirocket_302 _30kMiniRocket is better hereminirocket_302_3 0k is better hereminirocket_302_3 0k vs MiniRocket 74/4/310.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_202_40kMiniRocke t is better hereminirocket_202_4 0k is better hereminirocket_202_4 0k vs MiniRocket 74/4/310.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_48_20kMiniRocket is better hereminirocket_48_20 k is better hereminirocket_48_20 k vs MiniRocket 68/4/370.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_48_40kMiniRocket is better hereminirocket_48_40 k is better hereminirocket_48_40 k vs MiniRocket 68/4/370.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_58_30kMiniRocket is better hereminirocket_58_30 k is better hereminirocket_58_30 k vs MiniRocket 66/4/390.00.20.40.60 .81.0MiniRocket0.00. 20.40.60.81.0miniroc ket_60_40kMiniRocket is better hereminirocket_60_40 k is better hereminirocket_60_40 k vs MiniRocket 63/4/42 0.20
                                                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。