論文の概要: Exploring the ability of CNNs to generalise to previously unseen scales
over wide scale ranges
- arxiv url: http://arxiv.org/abs/2004.01536v7
- Date: Tue, 18 May 2021 09:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:47:31.952886
- Title: Exploring the ability of CNNs to generalise to previously unseen scales
over wide scale ranges
- Title(参考訳): 広帯域におけるCNNの従来未確認スケールへの一般化能力の探索
- Authors: Ylva Jansson and Tony Lindeberg
- Abstract要約: ディープネットワークにおけるスケールを扱うための簡単なアプローチは、一連のスケールチャネルで複数のスケールで画像を同時に処理することだ。
そこで我々は,画像のより大きな部分を分解能を低下させて処理する,新しいタイプのスケールチャネルアーキテクチャを提案する。
提案するFovMaxとFovAvgのネットワークは,1スケールのトレーニングデータを用いたトレーニングにおいても,ほぼ同一のスケールで動作し,また,小型のサンプルシステムでも改善が期待できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to handle large scale variations is crucial for many real world
visual tasks. A straightforward approach for handling scale in a deep network
is to process an image at several scales simultaneously in a set of scale
channels. Scale invariance can then, in principle, be achieved by using weight
sharing between the scale channels together with max or average pooling over
the outputs from the scale channels. The ability of such scale channel networks
to generalise to scales not present in the training set over significant scale
ranges has, however, not previously been explored. We, therefore, present a
theoretical analysis of invariance and covariance properties of scale channel
networks and perform an experimental evaluation of the ability of different
types of scale channel networks to generalise to previously unseen scales. We
identify limitations of previous approaches and propose a new type of foveated
scale channel architecture, where the scale channels process increasingly
larger parts of the image with decreasing resolution. Our proposed FovMax and
FovAvg networks perform almost identically over a scale range of 8, also when
training on single scale training data, and do also give improvements in the
small sample regime.
- Abstract(参考訳): 大規模なバリエーションを扱う能力は多くの現実世界の視覚的タスクにとって不可欠である。
ディープネットワークにおけるスケールを扱うための簡単なアプローチは、一連のスケールチャネルで複数のスケールで画像を同時に処理することだ。
スケール不変性は、原則として、スケールチャネル間の重量共有と、スケールチャネルからの出力を最大または平均的にプールすることで達成できる。
このようなスケールチャネルネットワークが、重要なスケール範囲のトレーニングセットに存在しないスケールに一般化する能力は、これまで検討されていなかった。
そこで、我々は、スケールチャネルネットワークの不変性と共分散特性の理論解析を行い、これまで見られなかったスケールに一般化する様々な種類のスケールチャネルネットワークの能力を実験的に評価する。
我々は,従来のアプローチの限界を識別し,より解像度の低い画像のより大きな部分をスケールチャネルが処理する,新たなタイプのスケールチャネルアーキテクチャを提案する。
提案するFovMaxとFovAvgのネットワークは,1スケールのトレーニングデータを用いたトレーニングにおいても,ほぼ同一のスケールで動作し,また,小型のサンプルシステムでも改善が期待できる。
関連論文リスト
- Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Riesz networks: scale invariant neural networks in a single forward pass [0.7673339435080445]
本稿では,新しいスケール不変ニューラルネットワークであるRiesz Networkを紹介する。
適用例として,コンクリートのトモグラフィー画像におけるひび割れの検出とセグメンテーションについて考察する。
次に, 広範囲のひび割れ幅を特徴とする, シミュレーション画像と実断層画像のセグメンテーション性能を検証する。
論文 参考訳(メタデータ) (2023-05-08T12:39:49Z) - Scale-MAE: A Scale-Aware Masked Autoencoder for Multiscale Geospatial
Representation Learning [55.762840052788945]
本研究では,異なるスケールでデータ間の関係を明示的に学習する事前学習手法であるScale-MAEを提案する。
その結果,低周波画像と高周波画像の両方を再構成することで,リモートセンシング画像のマルチスケール表現が堅牢になることがわかった。
論文 参考訳(メタデータ) (2022-12-30T03:15:34Z) - Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Scale-invariant scale-channel networks: Deep networks that generalise to
previously unseen scales [0.0]
従来提案されていた2つのスケールチャネルネットワーク設計が,トレーニングセットに存在しないスケールにうまく一般化していないことを示す。
そこで我々は,画像のより大きな部分を分解能を低下させて処理する,新しいタイプのスケールチャネルアーキテクチャを提案する。
提案するFovMaxとFovAvgのネットワークは,1スケールのトレーニングデータを用いたトレーニングにおいても,ほぼ同一のスケール範囲で動作し,また,小さなサンプル状態の大規模変動から学習する際の性能も向上する。
論文 参考訳(メタデータ) (2021-06-11T14:22:26Z) - Channel Scaling: A Scale-and-Select Approach for Transfer Learning [2.6304695993930594]
予め訓練されたニューラルネットワークを用いた転送学習は、医学画像解析における分類器の訓練のための一般的な戦略である。
本稿では,チャネルスケーリング層を導入して,ネットワークを効率的に構築する手法を提案する。
このフレームワークは、L1正規化とスケーリングウェイトに対するしきい値の閾値を付与することにより、事前訓練されたモデルから不要な特徴チャネルを反復的に除去する。
論文 参考訳(メタデータ) (2021-03-22T23:26:57Z) - Scale-covariant and scale-invariant Gaussian derivative networks [0.0]
本稿では,大規模空間論と深層学習のハイブリッドアプローチとして,カスケード内のパラメータ化スケール空間演算を結合してディープラーニングアーキテクチャを構築する。
その結果,学習データに存在しない大規模パターンの分類に優れた性能が得られた。
論文 参考訳(メタデータ) (2020-11-30T13:15:10Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。