論文の概要: Omni-Scale CNNs: a simple and effective kernel size configuration for
time series classification
- arxiv url: http://arxiv.org/abs/2002.10061v3
- Date: Fri, 17 Jun 2022 07:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 02:52:14.440288
- Title: Omni-Scale CNNs: a simple and effective kernel size configuration for
time series classification
- Title(参考訳): Omni-Scale CNNs:時系列分類のためのシンプルで効果的なカーネルサイズ構成
- Authors: Wensi Tang, Guodong Long, Lu Liu, Tianyi Zhou, Michael Blumenstein,
Jing Jiang
- Abstract要約: 時系列分類タスクにおける1次元畳み込みニューラルネットワーク(1D-CNN)において、受容場(RF)サイズは最も重要な要素の1つである。
1D-CNNのためのOmni-Scale Block (OS-block)を提案する。
実験の結果,OSブロックを持つモデルでは,探索された最適なRFサイズを持つモデルと同様の性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 47.423272376757204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Receptive Field (RF) size has been one of the most important factors for
One Dimensional Convolutional Neural Networks (1D-CNNs) on time series
classification tasks. Large efforts have been taken to choose the appropriate
size because it has a huge influence on the performance and differs
significantly for each dataset. In this paper, we propose an Omni-Scale block
(OS-block) for 1D-CNNs, where the kernel sizes are decided by a simple and
universal rule. Particularly, it is a set of kernel sizes that can efficiently
cover the best RF size across different datasets via consisting of multiple
prime numbers according to the length of the time series. The experiment result
shows that models with the OS-block can achieve a similar performance as models
with the searched optimal RF size and due to the strong optimal RF size capture
ability, simple 1D-CNN models with OS-block achieves the state-of-the-art
performance on four time series benchmarks, including both univariate and
multivariate data from multiple domains. Comprehensive analysis and discussions
shed light on why the OS-block can capture optimal RF sizes across different
datasets. Code available [https://github.com/Wensi-Tang/OS-CNN]
- Abstract(参考訳): 1次元畳み込みニューラルネットワーク(1D-CNN)の時系列分類タスクにおいて、受容場(RF)サイズは最も重要な要素の1つである。
パフォーマンスに大きな影響を与え、データセットごとに大きく異なるため、適切なサイズを選択するために大きな努力が払われています。
本稿では,カーネルサイズを単純かつ普遍的なルールで決定する1d-cnnsのための全規模ブロック (os-block) を提案する。
特に、時系列の長さに応じて複数の素数からなることによって、異なるデータセットにわたって最適なrfサイズを効率的にカバーできるカーネルサイズの集合である。
実験の結果,OSブロックを用いたモデルは,探索された最適なRFサイズを持つモデルと同等の性能を達成でき,かつ,強力な最適なRFサイズキャプチャ能力を持つため,OSブロックを用いた単純な1D-CNNモデルは,複数のドメインからの一変量および多変量データを含む4つの時系列ベンチマークにおける最先端の性能を達成できることがわかった。
包括的な分析と議論により、OSブロックが異なるデータセット間で最適なRFサイズをキャプチャできる理由が明らかになった。
Code available [https://github.com/Wensi-Tang/OS-CNN]
関連論文リスト
- AdaFSNet: Time Series Classification Based on Convolutional Network with a Adaptive and Effective Kernel Size Configuration [9.070240771963544]
本稿では、時系列分類の精度を高めるために、適応的で効果的なフルスコープ畳み込みニューラルネットワーク(AdaFSNet)を提案する。
我々のモデルは,AdaFSNetネットワークの効率と時系列分類タスクの処理効率を基礎として,分類精度の点でベースラインモデルを上回った。
論文 参考訳(メタデータ) (2024-04-28T16:58:53Z) - D-Net: Dynamic Large Kernel with Dynamic Feature Fusion for Volumetric Medical Image Segmentation [7.894630378784007]
動的大カーネル(DLK)および動的特徴融合(DFF)モジュールを提案する。
D-Netは、マルチスケールの大規模な受容場を効果的に利用し、グローバルな文脈情報を適応的に活用することができる。
論文 参考訳(メタデータ) (2024-03-15T20:49:43Z) - DISCO: Distributed Inference with Sparse Communications [4.463769269318892]
分散コンピューティングは、単一ノードのメモリ消費を減らすための一般的なアプローチである。
本稿では,各レイヤの推論を複数のノードに分散する「階層モデル並列化」について検討する。
画像分類,オブジェクト検出,セマンティックセグメンテーション,画像スーパーレゾリューションなど,様々なCVタスクに対するdisCOフレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-02-22T07:20:34Z) - Toward Large Kernel Models [16.704246627541103]
本稿では,2つのプレコンディショニングSGDに基づくアルゴリズムであるEigenPro 3.0を紹介する。
既存のカーネルメソッドでは不可能なモデルとデータサイズへのスケーリングを示す。
論文 参考訳(メタデータ) (2023-02-06T07:57:50Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。