論文の概要: Robustcaps: a transformation-robust capsule network for image
classification
- arxiv url: http://arxiv.org/abs/2210.11092v1
- Date: Thu, 20 Oct 2022 08:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 14:58:41.498057
- Title: Robustcaps: a transformation-robust capsule network for image
classification
- Title(参考訳): Robustcaps:画像分類のためのトランスフォーメーションロバストカプセルネットワーク
- Authors: Sai Raam Venkataraman, S. Balasubramanian, R. Raghunatha Sarma
- Abstract要約: 本稿では, 変換ロバスト性の望ましい特性を示すディープニューラルネットワークモデルを提案する。
我々のモデルはRobostCapsと呼ばれ、改良されたカプセルネットワークモデルでグループ同変畳み込みを使用する。
CIFAR-10、FashionMNIST、CIFAR-100データセットの最先端の精度を実現している。
- 参考スコア(独自算出の注目度): 6.445605125467574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geometric transformations of the training data as well as the test data
present challenges to the use of deep neural networks to vision-based learning
tasks. In order to address this issue, we present a deep neural network model
that exhibits the desirable property of transformation-robustness. Our model,
termed RobustCaps, uses group-equivariant convolutions in an improved capsule
network model. RobustCaps uses a global context-normalised procedure in its
routing algorithm to learn transformation-invariant part-whole relationships
within image data. This learning of such relationships allows our model to
outperform both capsule and convolutional neural network baselines on
transformation-robust classification tasks. Specifically, RobustCaps achieves
state-of-the-art accuracies on CIFAR-10, FashionMNIST, and CIFAR-100 when the
images in these datasets are subjected to train and test-time rotations and
translations.
- Abstract(参考訳): トレーニングデータとテストデータの幾何学的変換は、深層ニューラルネットワークを視覚ベースの学習タスクに使用する上での課題を示す。
この問題に対処するため,我々は,トランスフォーメーション・ロバスト性の望ましい特性を示すディープニューラルネットワークモデルを提案する。
robustcapsと呼ばれるこのモデルは、改良されたカプセルネットワークモデルでグループ同変畳み込みを使用する。
robustcapsは、ルーティングアルゴリズムでグローバルコンテキスト正規化手順を使用して、画像データ内の変換不変部分-whole関係を学習する。
このような関係の学習により、我々のモデルはトランスフォーメーション・ロバスト分類タスクにおいてカプセルと畳み込みニューラルネットワークのベースラインを上回ります。
具体的には、RobustCapsは、CIFAR-10、FashionMNIST、CIFAR-100で、これらのデータセットのイメージがトレインとテストタイムのローテーションと翻訳を受ける際に、最先端の精度を達成する。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - Iterative collaborative routing among equivariant capsules for
transformation-robust capsule networks [6.445605125467574]
本稿では,同変で構成性に配慮したカプセルネットワークモデルを提案する。
構成性に対する認識は、提案した新しい反復的グラフベースのルーティングアルゴリズムを用いて得られる。
FashionMNIST, CIFAR-10, CIFAR-100の変換画像分類実験により, ICRを用いた我々のモデルは, 畳み込みベースラインとカプセルベースラインを上回り, 最先端性能を実現していることが示された。
論文 参考訳(メタデータ) (2022-10-20T08:47:18Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Feature-level augmentation to improve robustness of deep neural networks
to affine transformations [22.323625542814284]
最近の研究では、畳み込みニューラルネットワークは小さな画像変換に対してうまく一般化しないことが明らかになっている。
ニューラルアーキテクチャの中間層にデータ拡張を導入することを提案する。
このような変換に対処するニューラルネットワークの能力を開発する。
論文 参考訳(メタデータ) (2022-02-10T17:14:58Z) - TransformNet: Self-supervised representation learning through predicting
geometric transformations [0.8098097078441623]
入力データに適用された幾何変換の認識のための教師なし意味特徴学習手法について述べる。
我々のアプローチの基本概念は、画像中の物体を知らない人が、それらに適用された幾何学的変換を定量的に予測できないことである。
論文 参考訳(メタデータ) (2022-02-08T22:41:01Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Probabilistic Spatial Transformer Networks [0.6999740786886537]
本稿では、決定論的ではなく、変換を推定する確率的拡張を提案する。
これら2つの特性が,分類性能,ロバスト性,モデル校正性の向上につながることを示す。
さらに、時系列データにおけるモデル性能を改善することにより、非視覚領域へのアプローチが一般化されることを実証する。
論文 参考訳(メタデータ) (2020-04-07T18:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。