論文の概要: ResMLP: Feedforward networks for image classification with
data-efficient training
- arxiv url: http://arxiv.org/abs/2105.03404v1
- Date: Fri, 7 May 2021 17:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:14:45.548401
- Title: ResMLP: Feedforward networks for image classification with
data-efficient training
- Title(参考訳): ResMLP:データ効率訓練による画像分類のためのフィードフォワードネットワーク
- Authors: Hugo Touvron, Piotr Bojanowski, Mathilde Caron, Matthieu Cord,
Alaaeldin El-Nouby, Edouard Grave, Armand Joulin, Gabriel Synnaeve, Jakob
Verbeek, Herv\'e J\'egou
- Abstract要約: 画像分類のための多層パーセプトロン上に構築されたアーキテクチャであるResMLPを提案する。
Timmライブラリと事前トレーニングされたモデルに基づいたコードを共有します。
- 参考スコア(独自算出の注目度): 73.26364887378597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ResMLP, an architecture built entirely upon multi-layer
perceptrons for image classification. It is a simple residual network that
alternates (i) a linear layer in which image patches interact, independently
and identically across channels, and (ii) a two-layer feed-forward network in
which channels interact independently per patch. When trained with a modern
training strategy using heavy data-augmentation and optionally distillation, it
attains surprisingly good accuracy/complexity trade-offs on ImageNet. We will
share our code based on the Timm library and pre-trained models.
- Abstract(参考訳): 画像分類のための多層パーセプトロン上に構築されたアーキテクチャであるResMLPを提案する。
i) 画像パッチが独立に、かつ同一にチャネル間で相互作用する線形層と、(ii) チャネルがパッチ毎に独立に相互作用する2層フィードフォワードネットワークを交換する単純な残留ネットワークである。
大量のデータ提供と任意に蒸留を使って現代的なトレーニング戦略でトレーニングすると、imagenet上で驚くほど精度と複雑さのトレードオフが得られる。
我々はTimライブラリと事前トレーニングされたモデルに基づいてコードを共有します。
関連論文リスト
- Co-training $2^L$ Submodels for Visual Recognition [67.02999567435626]
サブモデルコトレーニングは、コトレーニング、自己蒸留、深さに関連する正規化手法である。
サブモデルのコトレーニングは,画像分類やセマンティックセグメンテーションなどの認識タスクのためのバックボーンのトレーニングに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-09T14:38:09Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for
Image Recognition [123.59890802196797]
画像認識のための多層パーセプトロン型ニューラルネットワーク構築ブロックであるRepMLPを提案する。
トレーニング中にRepMLP内に畳み込み層を構築し,それをFCにマージして推論を行う。
従来のCNNにRepMLPを挿入することで、ImageNetでは1.8%の精度、顔認識では2.9%、FLOPの低いCityscapeでは2.3%のmIoUを改善します。
論文 参考訳(メタデータ) (2021-05-05T06:17:40Z) - RandomForestMLP: An Ensemble-Based Multi-Layer Perceptron Against Curse
of Dimensionality [0.0]
我々はRandomForestMLPという,新しい,実用的なディープラーニングパイプラインを提案する。
このコアトレーニング可能な分類エンジンは、畳み込みニューラルネットワークのバックボーンと、分類タスクのためのアンサンブルベースの多層パーセプトロンコアで構成されている。
論文 参考訳(メタデータ) (2020-11-02T18:25:36Z) - Retrain or not retrain? -- efficient pruning methods of deep CNN
networks [0.30458514384586394]
畳み込みニューラルネットワーク(CNN)は、画像分類、オブジェクト検出、セマンティックセグメンテーションといった画像処理タスクにおいて重要な役割を果たしている。
CNNネットワークは数百から数百の積み重ねレイヤーと数メガバイトの重みを持つことが多い。
複雑性とメモリフットプリントを削減する方法の1つは、プルーニングである。
論文 参考訳(メタデータ) (2020-02-12T23:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。