論文の概要: Modelling Long Range Dependencies in $N$D: From Task-Specific to a
General Purpose CNN
- arxiv url: http://arxiv.org/abs/2301.10540v2
- Date: Sun, 16 Apr 2023 08:55:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 21:23:28.904819
- Title: Modelling Long Range Dependencies in $N$D: From Task-Specific to a
General Purpose CNN
- Title(参考訳): N$Dにおける長距離依存性のモデル化:タスク特化から汎用CNNへ
- Authors: David M. Knigge, David W. Romero, Albert Gu, Efstratios Gavves, Erik
J. Bekkers, Jakub M. Tomczak, Mark Hoogendoorn, Jan-Jakob Sonke
- Abstract要約: 我々は、任意の解像度、次元、長さのデータを処理することができる単一のCNNであるContinuous Convolutional Neural Network (CCNN)を提案する。
主要なコンポーネントは、各レイヤにおける長距離依存関係をモデル化する継続的畳み込みカーネルである。
私たちのCCNNは、検討されたすべてのタスクにおいて、現在の最先端よりも優れています。
- 参考スコア(独自算出の注目度): 47.205463459723056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performant Convolutional Neural Network (CNN) architectures must be tailored
to specific tasks in order to consider the length, resolution, and
dimensionality of the input data. In this work, we tackle the need for
problem-specific CNN architectures. We present the Continuous Convolutional
Neural Network (CCNN): a single CNN able to process data of arbitrary
resolution, dimensionality and length without any structural changes. Its key
component are its continuous convolutional kernels which model long-range
dependencies at every layer, and thus remove the need of current CNN
architectures for task-dependent downsampling and depths. We showcase the
generality of our method by using the same architecture for tasks on sequential
($1{\rm D}$), visual ($2{\rm D}$) and point-cloud ($3{\rm D}$) data. Our CCNN
matches and often outperforms the current state-of-the-art across all tasks
considered.
- Abstract(参考訳): 適応畳み込みニューラルネットワーク(CNN)アーキテクチャは、入力データの長さ、解像度、次元性を考慮するために、特定のタスクに合わせる必要がある。
本研究では,問題固有のCNNアーキテクチャの必要性に対処する。
連続畳み込みニューラルネットワーク(CCNN:Continuous Convolutional Neural Network)は、任意の解像度、次元、長さのデータを処理することができる単一のCNNである。
主要なコンポーネントは連続的な畳み込みカーネルで、各レイヤにおける長距離依存関係をモデル化し、タスク依存のダウンサンプリングと深さに対する現在のCNNアーキテクチャの必要性を取り除く。
我々は,同じアーキテクチャを用いて,逐次($1{\rm D}$),ビジュアル($2{\rm D}$)およびポイントクラウド($3{\rm D}$)上のタスクに対して,本手法の汎用性を示す。
私たちのCCNNは、検討されたすべてのタスクにおいて、現在の最先端よりも優れています。
関連論文リスト
- Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - A Domain Decomposition-Based CNN-DNN Architecture for Model Parallel Training Applied to Image Recognition Problems [0.0]
モデル並列トレーニング戦略を自然にサポートする新しいCNN-DNNアーキテクチャを提案する。
提案手法は,グローバルモデルと比較して,必要なトレーニング時間を著しく短縮することができる。
その結果,提案手法は,基礎となる分類問題の精度向上にも有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-13T18:06:59Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Cyclic orthogonal convolutions for long-range integration of features [3.309593266039024]
特徴量$z$と画像全体のロケーション$(x,y)$との間の柔軟な情報フローを可能にする新しいアーキテクチャを提案する。
このアーキテクチャは、$(x,y)$座標だけでなく、$(x,z)$と$(y,z)$座標でも、3つの畳み込みのサイクルを使用します。
本モデルでは,CIFAR-10およびImageNetデータセットの画像分類において,類似サイズのCNNと比較した場合の競合結果を得る。
論文 参考訳(メタデータ) (2020-12-11T16:33:48Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。