論文の概要: Is it Enough to Optimize CNN Architectures on ImageNet?
- arxiv url: http://arxiv.org/abs/2103.09108v1
- Date: Tue, 16 Mar 2021 14:42:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 16:43:26.740196
- Title: Is it Enough to Optimize CNN Architectures on ImageNet?
- Title(参考訳): ImageNet上でCNNアーキテクチャを最適化するには十分か?
- Authors: Lukas Tuggener, J\"urgen Schmidhuber, Thilo Stadelmann
- Abstract要約: 我々は、ImageNetと他の8つの画像分類データセットで500のCNNアーキテクチャをトレーニングする。
アーキテクチャとパフォーマンスの関係はデータセットによって大きく異なる。
2つのデータセット固有のパフォーマンス指標を識別した:層間の累積幅とネットワーク全体の深さである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An implicit but pervasive hypothesis of modern computer vision research is
that convolutional neural network (CNN) architectures that perform better on
ImageNet will also perform better on other vision datasets. We challenge this
hypothesis through an extensive empirical study for which we train 500 sampled
CNN architectures on ImageNet as well as 8 other image classification datasets
from a wide array of application domains. The relationship between architecture
and performance varies wildly, depending on the datasets. For some of them, the
performance correlation with ImageNet is even negative. Clearly, it is not
enough to optimize architectures solely for ImageNet when aiming for progress
that is relevant for all applications. Therefore, we identify two
dataset-specific performance indicators: the cumulative width across layers as
well as the total depth of the network. Lastly, we show that the range of
dataset variability covered by ImageNet can be significantly extended by adding
ImageNet subsets restricted to few classes.
- Abstract(参考訳): 現代のコンピュータビジョン研究の暗黙的だが広く普及している仮説は、ImageNetでより良い性能を発揮する畳み込みニューラルネットワーク(CNN)アーキテクチャは、他のビジョンデータセットでもより良い性能を発揮するというものである。
我々は、この仮説に、幅広いアプリケーションドメインから500のサンプルCNNアーキテクチャと8つの他の画像分類データセットをトレーニングする広範な実証的研究を通して挑戦する。
アーキテクチャとパフォーマンスの関係はデータセットによって大きく異なる。
一部では、ImageNetとパフォーマンスの相関性はさらに否定的だ。
明らかに、すべてのアプリケーションに関係のある進歩を目指して、ImageNet専用のアーキテクチャを最適化するには不十分です。
そこで,データ集合特有の性能指標として,層間の累積幅とネットワークの深さの2つを同定した。
最後に、imagenetによってカバーされるデータセットの変動範囲は、imagenetサブセットを少数のクラスに制限することで大幅に拡張できることを示す。
関連論文リスト
- ImageNot: A contrast with ImageNet preserves model rankings [16.169858780154893]
私たちは、ImageNetのスケールに合わせて設計されたデータセットであるImageNotを紹介します。
長年にわたってImageNetのために開発された主要なモデルアーキテクチャは、ImageNotでトレーニングされ評価された時に同じランクにランク付けされた。
論文 参考訳(メタデータ) (2024-04-02T17:13:04Z) - Does progress on ImageNet transfer to real-world datasets? [28.918770106968843]
6つの実用的な画像分類データセットに対して,画像ネット事前学習モデルの評価を行った。
複数のデータセットでは、ImageNetの精度が高いモデルでは、継続的にパフォーマンスが向上するわけではない。
将来のベンチマークには、より多様なデータセットが含まれて、学習アルゴリズムを改善するためのより包括的なアプローチが奨励されることを期待しています。
論文 参考訳(メタデータ) (2023-01-11T18:55:53Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - U-Net Based Architecture for an Improved Multiresolution Segmentation in
Medical Images [0.0]
我々は,マルチレゾリューション・フレームワークを用いた画像分割のための完全畳み込みニューラルネットワークを提案している。
提案したアーキテクチャ(mrU-Net)では、入力画像とそのダウンサンプルバージョンをネットワーク入力として使用した。
ネットワークを4つの異なる医療データセットでトレーニングし、テストしました。
論文 参考訳(メタデータ) (2020-07-16T10:19:01Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Medical Image Segmentation Using a U-Net type of Architecture [0.0]
我々は、U-Netのアーキテクチャとボトルネック層における教師付きトレーニング戦略を組み合わせることで、元のU-Netアーキテクチャと同等の結果が得られると論じる。
我々は,U-Netのエンコーダブランチのボトルネックに対して,完全に教師付きFC層に基づくピクセルワイズロスを導入する。
2層ベースのFCサブネットは、より多くのセマンティック情報を含むようにボトルネック表現をトレーニングし、デコーダ層が最終的なセグメンテーションマップを予測するために使用する。
論文 参考訳(メタデータ) (2020-05-11T16:10:18Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。