論文の概要: Multipod Convolutional Network
- arxiv url: http://arxiv.org/abs/2210.00689v1
- Date: Mon, 3 Oct 2022 02:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:44:56.050605
- Title: Multipod Convolutional Network
- Title(参考訳): マルチポッド畳み込みネットワーク
- Authors: Hongyi Pan, Salih Atici, Ahmet Enis Cetin
- Abstract要約: 我々は3つの並列ポッドネットワーク(TripodNet)が一般的に使われているオブジェクト認識データセットにおいて最良の結果をもたらすことを実験的に観察した。
TripodNetはCIFAR-10とImageNetデータセットで最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce a convolutional network which we call MultiPodNet
consisting of a combination of two or more convolutional networks which process
the input image in parallel to achieve the same goal. Output feature maps of
parallel convolutional networks are fused at the fully connected layer of the
network. We experimentally observed that three parallel pod networks
(TripodNet) produce the best results in commonly used object recognition
datasets. Baseline pod networks can be of any type. In this paper, we use
ResNets as baseline networks and their inputs are augmented image patches. The
number of parameters of the TripodNet is about three times that of a single
ResNet. We train the TripodNet using the standard backpropagation type
algorithms. In each individual ResNet, parameters are initialized with
different random numbers during training. The TripodNet achieved
state-of-the-art performance on CIFAR-10 and ImageNet datasets. For example, it
improved the accuracy of a single ResNet from 91.66% to 92.47% under the same
training process on the CIFAR-10 dataset.
- Abstract(参考訳): 本稿では、入力画像を並列に処理して同じ目標を達成する2つ以上の畳み込みネットワークを組み合わせたマルチポッドネットと呼ぶ畳み込みネットワークを提案する。
並列畳み込みネットワークの出力特徴マップは、ネットワークの完全連結層で融合される。
3つの並列ポッドネットワーク(tripodnet)が、一般的なオブジェクト認識データセットで最高の結果をもたらすことを実験的に観察した。
ベースラインポッドネットワークはどんなタイプであっても構わない。
本稿では,ベースラインネットワークとしてResNetsを使用し,その入力は拡張イメージパッチである。
TripodNetのパラメータの数は、単一のResNetの約3倍である。
標準バックプロパゲーション型アルゴリズムを用いてTripodNetをトレーニングする。
各resnetでは、トレーニング中にパラメータが異なる乱数で初期化される。
TripodNetはCIFAR-10とImageNetデータセットで最先端のパフォーマンスを達成した。
例えば、CIFAR-10データセットと同じトレーニングプロセスの下で、単一のResNetの精度を91.66%から92.47%に改善した。
関連論文リスト
- SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - ThreshNet: An Efficient DenseNet using Threshold Mechanism to Reduce
Connections [1.2542322096299672]
本稿では,接続の方法をさらに最適化するためのしきい値機構を用いた新しいネットワークアーキテクチャを提案する。
ThreshNetは、DenseNetと比較して最大60%の推論時間を短縮し、トレーニング速度を最大35%高速化し、エラー率を20%削減する。
論文 参考訳(メタデータ) (2022-01-09T13:52:16Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - MutualNet: Adaptive ConvNet via Mutual Learning from Different Model
Configurations [51.85020143716815]
MutualNetは、リソース制約の多様なセットで実行できる単一のネットワークを訓練するために提案します。
提案手法は,様々なネットワーク幅と入力解像度を持つモデル構成のコホートを訓練する。
MutualNetは、さまざまなネットワーク構造に適用できる一般的なトレーニング方法論です。
論文 参考訳(メタデータ) (2021-05-14T22:30:13Z) - PocketNet: A Smaller Neural Network for 3D Medical Image Segmentation [0.0]
私たちは、パラメータの数の3%未満を使用しながら、従来のCNNに匹敵するセグメンテーション結果を達成するPocketNetと呼ばれる新しいCNNアーキテクチャを導き出します。
我々は,PocketNetが従来のCNNに匹敵するセグメンテーション結果を達成し,パラメータ数の3%未満を用いていることを示す。
論文 参考訳(メタデータ) (2021-04-21T20:10:30Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Is Each Layer Non-trivial in CNN? [11.854634156817642]
畳み込みニューラルネットワーク(CNN)モデルは、多くの分野で大きな成功を収めている。
ResNetの出現により、実際に使われているネットワークはより深くなりつつある。
トレーニングセット上でネットワークをトレーニングした後、ネットワーク畳み込みカーネルをゼロに置き換え、テストセット上で結果モデルをテストする。
論文 参考訳(メタデータ) (2020-09-09T02:17:49Z) - Adjoined Networks: A Training Paradigm with Applications to Network
Compression [3.995047443480282]
本稿では、元のベースネットワークとより小さな圧縮ネットワークの両方を同時にトレーニングする学習パラダイムであるAdjoined Networks(AN)を紹介する。
ベースネットワークとしてResNet-50を使用すると、画像Netデータセット上の1.8Mパラメータと1.6GFLOPで71.8%のトップ-1の精度が達成される。
我々は,ニューラルネットワーク探索を用いて,より小さなネットワークの各レイヤの幅と重みを共同で学習し,ANを増強する訓練パラダイムであるDaniable Adjoined Networks (DAN)を提案する。
論文 参考訳(メタデータ) (2020-06-10T02:48:16Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。