論文の概要: An Improvement for Capsule Networks using Depthwise Separable
Convolution
- arxiv url: http://arxiv.org/abs/2007.15167v1
- Date: Thu, 30 Jul 2020 00:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:06:19.765505
- Title: An Improvement for Capsule Networks using Depthwise Separable
Convolution
- Title(参考訳): 奥行き分離可能な畳み込みを用いたカプセルネットワークの改良
- Authors: Nguyen Huu Phong, Bernardete Ribeiro
- Abstract要約: カプセルネットワークは、画像の背景が性能に挑戦できるという意味で、コンピュータビジョンにおいて重要な問題に直面している。
本稿では,標準畳み込みをDepthwise Separable Convolutionに置き換えることで,カプセルネットワークのアーキテクチャを改善することを提案する。
新しい設計はモデルの総パラメータを大幅に削減し、安定性を高め、競争精度を提供する。
- 参考スコア(独自算出の注目度): 1.5990720051907859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capsule Networks face a critical problem in computer vision in the sense that
the image background can challenge its performance, although they learn very
well on training data. In this work, we propose to improve Capsule Networks'
architecture by replacing the Standard Convolution with a Depthwise Separable
Convolution. This new design significantly reduces the model's total parameters
while increases stability and offers competitive accuracy. In addition, the
proposed model on $64\times64$ pixel images outperforms standard models on
$32\times32$ and $64\times64$ pixel images. Moreover, we empirically evaluate
these models with Deep Learning architectures using state-of-the-art Transfer
Learning networks such as Inception V3 and MobileNet V1. The results show that
Capsule Networks perform equivalently against Deep Learning models. To the best
of our knowledge, we believe that this is the first work on the integration of
Depthwise Separable Convolution into Capsule Networks.
- Abstract(参考訳): Capsule Networksは、画像の背景がそのパフォーマンスに挑戦できるという意味で、コンピュータビジョンにおいて重要な問題に直面している。
本稿では,標準畳み込みをDepthwise Separable Convolutionに置き換えることで,カプセルネットワークのアーキテクチャを改善することを提案する。
この新しい設計はモデル全体のパラメータを大幅に削減し、安定性を高め、競合精度も向上する。
さらに、提案された64\times64$のモデルが32\times32$と64\times64$の標準モデルを上回る。
さらに,インセプションV3やMobileNet V1といった最先端のトランスファー学習ネットワークを用いて,これらのモデルをディープラーニングアーキテクチャを用いて実証的に評価する。
その結果,Capsule NetworksはDeep Learningモデルと同等に動作することがわかった。
私たちの知る限りでは、これはDepthwise Separable ConvolutionをCapsule Networksに統合する最初の作業であると考えています。
関連論文リスト
- SINET: Sparsity-driven Interpretable Neural Network for Underwater Image Enhancement [9.671347245207121]
この研究は、水中画像強調(UIE)タスクのための空間駆動型解釈型ニューラルネットワーク(SINET)を導入する。
純粋深層学習とは異なり、我々のネットワークアーキテクチャは、新しいチャネル固有の畳み込みスパース符号化(CCSC)モデルに基づいている。
我々の実験によると、SINETは最先端のPSNRの値を$1.05$dB、計算複雑性を$3873$で上回っている。
論文 参考訳(メタデータ) (2024-09-02T08:03:02Z) - HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - Masked Capsule Autoencoders [5.363623643280699]
本稿では,事前学習を自己指導的に活用する最初のカプセルネットワークであるMasked Capsule Autoencoders (MCAE)を提案する。
提案するMCAEモデルでは,プリトレーニングステージとしてマスク画像モデリングを使用するようにカプセルネットワークを再構成することにより,この問題を緩和する。
我々は、CNNやViTと同様、Capsule Networksも自己教師付き事前トレーニングの恩恵を受けることができることを示した。
論文 参考訳(メタデータ) (2024-03-07T18:22:03Z) - Revisiting Adversarial Training for ImageNet: Architectures, Training
and Generalization across Threat Models [52.86163536826919]
我々は、ViTsとConvNeXtsを比較したImageNetの敵対的トレーニングを再考する。
修正されたConvNeXt, ConvNeXt + ConvStemは、モデルパラメータの異なる範囲にまたがる最も堅牢な一般化をもたらす。
我々の ViT + ConvStem は、目に見えない脅威モデルに最高の一般化をもたらす。
論文 参考訳(メタデータ) (2023-03-03T11:53:01Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders [104.05133094625137]
完全畳み込み型マスク付きオートエンコーダフレームワークと,新たなグローバル応答正規化層を提案する。
この自己教師付き学習技術とアーキテクチャ改善の共設計により、純粋なConvNetの性能を大幅に向上させるConvNeXt V2と呼ばれる新しいモデルファミリが生まれる。
論文 参考訳(メタデータ) (2023-01-02T18:59:31Z) - Capsule Network based Contrastive Learning of Unsupervised Visual
Representations [13.592112044121683]
Contrastive Capsule (CoCa) Modelは、新しいアーキテクチャ、トレーニング、テストアルゴリズムと対照的な損失を用いた、シームズスタイルのCapsule Networkである。
我々は、教師なし画像分類CIFAR-10データセットのモデルを評価し、トップ1テスト精度70.50%、トップ5テスト精度98.10%を達成する。
効率的なアーキテクチャのため、我々のモデルは、教師なし学習と教師なし学習の両方において、現在のSOTAの31倍のパラメータと71倍のFLOPを持つ。
論文 参考訳(メタデータ) (2022-09-22T19:05:27Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - 3DConvCaps: 3DUnet with Convolutional Capsule Encoder for Medical Image
Segmentation [1.863532786702135]
本稿では,畳み込み層を用いた低レベル特徴(短距離注意)を学習するために,畳み込みカプセル(3DConvCaps)を用いた3Dエンコーダデコーダネットワークを提案する。
iSeg-2017、Hippocampus、Cardiacを含む複数のデータセットに関する実験では、我々の3D3DConvCapsネットワークが、以前のカプセルネットワークや3D-UNetsよりもかなり優れていることを示した。
論文 参考訳(メタデータ) (2022-05-19T03:00:04Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。