論文の概要: Multi-Scale Weight Sharing Network for Image Recognition
- arxiv url: http://arxiv.org/abs/2001.02816v1
- Date: Thu, 9 Jan 2020 02:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:58:39.459274
- Title: Multi-Scale Weight Sharing Network for Image Recognition
- Title(参考訳): 画像認識のためのマルチスケール重み共有ネットワーク
- Authors: Shubhra Aich, Ian Stavness, Yasuhiro Taniguchi, Masaki Yamazaki
- Abstract要約: ネットワークの同じ層における異なるスケールでの畳み込みカーネルの重みを共有します。
ヘテロジニアス画像認識データセットにおける重み共有方式の評価を行った。
- 参考スコア(独自算出の注目度): 16.330911254761432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the idea of weight sharing over multiple scales in
convolutional networks. Inspired by traditional computer vision approaches, we
share the weights of convolution kernels over different scales in the same
layers of the network. Although multi-scale feature aggregation and sharing
inside convolutional networks are common in practice, none of the previous
works address the issue of convolutional weight sharing. We evaluate our weight
sharing scheme on two heterogeneous image recognition datasets - ImageNet
(object recognition) and Places365-Standard (scene classification). With
approximately 25% fewer parameters, our shared-weight ResNet model provides
similar performance compared to baseline ResNets. Shared-weight models are
further validated via transfer learning experiments on four additional image
recognition datasets - Caltech256 and Stanford 40 Actions (object-centric) and
SUN397 and MIT Inddor67 (scene-centric). Experimental results demonstrate
significant redundancy in the vanilla implementations of the deeper networks,
and also indicate that a shift towards increasing the receptive field per
parameter may improve future convolutional network architectures.
- Abstract(参考訳): 本稿では,畳み込みネットワークにおける複数スケールの重み共有について検討する。
従来のコンピュータビジョンアプローチにインスパイアされた私たちは、ネットワークの同じ層における異なるスケールでの畳み込みカーネルの重みを共有します。
畳み込みネットワーク内のマルチスケール特徴の集約と共有は一般的に行われているが、畳み込みの重み付けの問題を扱った先行研究は行われていない。
本研究では,画像認識データセットであるimagenet (object recognition) とplaces365-standard (scene classification) の重み共有方式を評価する。
約25%のパラメータで、共有重みのresnetモデルはベースラインのresnetと同じようなパフォーマンスを提供します。
共有ウェイトモデルは、caltech256とstanford 40 actions(object-centric)とsun397とmit inddor67(scene-centric)の4つの画像認識データセットで転送学習実験を通じてさらに検証される。
実験の結果、より深いネットワークのバニラ実装における著しい冗長性が示され、またパラメータ当たりの受容場の増加へのシフトが、将来の畳み込みネットワークアーキテクチャを改善する可能性も示唆された。
関連論文リスト
- Deep multi-prototype capsule networks [0.3823356975862005]
カプセルネットワーク(Capsule Network)は、画像の部分を特定し、階層的に全体のインスタンス化パラメータを形成するニューラルネットワークの一種である。
本稿では,画像部品のバリエーションを表現するためにカプセルネットワークを誘導するマルチプロトタイプアーキテクチャを提案する。
MNIST, SVHN, C-Cube, CEDAR, MCYT, UTSigのデータセットに対する実験結果から, 提案したモデルが画像分類精度で他のモデルよりも優れていることが明らかになった。
論文 参考訳(メタデータ) (2024-04-23T18:37:37Z) - Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Improved Generalization of Weight Space Networks via Augmentations [53.87011906358727]
深度重み空間(DWS)における学習は新たな研究方向であり、2次元および3次元神経場(INRs, NeRFs)への応用
我々は、この過度な適合の理由を実証的に分析し、主要な理由は、DWSデータセットの多様性の欠如であることがわかった。
そこで本研究では,重み空間におけるデータ拡張戦略について検討し,重み空間に適応したMixUp法を提案する。
論文 参考訳(メタデータ) (2024-02-06T15:34:44Z) - Learning to Compose SuperWeights for Neural Parameter Allocation Search [61.078949532440724]
提案手法は,同じ重み集合を用いて多くのネットワークに対してパラメータを生成することができることを示す。
これにより、効率的なアンサンブルや、いつでも予測できるようなタスクをサポートできます。
論文 参考訳(メタデータ) (2023-12-03T04:20:02Z) - Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - Impact of Scaled Image on Robustness of Deep Neural Networks [0.0]
生画像のスケーリングはアウト・オブ・ディストリビューションデータを生成するため、ネットワークを騙すための敵攻撃の可能性がある。
本研究では,ImageNet Challengeデータセットのサブセットを複数でスケーリングすることで,Scaling-DistortionデータセットのImageNet-CSを提案する。
論文 参考訳(メタデータ) (2022-09-02T08:06:58Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Scale-covariant and scale-invariant Gaussian derivative networks [0.0]
本稿では,大規模空間論と深層学習のハイブリッドアプローチとして,カスケード内のパラメータ化スケール空間演算を結合してディープラーニングアーキテクチャを構築する。
その結果,学習データに存在しない大規模パターンの分類に優れた性能が得られた。
論文 参考訳(メタデータ) (2020-11-30T13:15:10Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。