論文の概要: Size Matters
- arxiv url: http://arxiv.org/abs/2102.01582v1
- Date: Tue, 2 Feb 2021 16:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 05:42:20.662479
- Title: Size Matters
- Title(参考訳): 大きさ
- Authors: Mats L. Richter, Johan Byttner, Ulf Krumnack, Ludwdig Schallner,
Justin Shenk
- Abstract要約: 完全畳み込み画像分類器は入力サイズに非依存ではなく、性能に有意な差があることを示す。
より詳しく見てみると、入力サイズとモデルパフォーマンスの間には単純な関係がないことがわかります。
識別的特徴の大きさが、層間における推論プロセスの分散方法に重大な影響を与えていることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully convolutional neural networks can process input of arbitrary size by
applying a combination of downsampling and pooling. However, we find that fully
convolutional image classifiers are not agnostic to the input size but rather
show significant differences in performance: presenting the same image at
different scales can result in different outcomes. A closer look reveals that
there is no simple relationship between input size and model performance (no
`bigger is better'), but that each each network has a preferred input size, for
which it shows best results. We investigate this phenomenon by applying
different methods, including spectral analysis of layer activations and probe
classifiers, showing that there are characteristic features depending on the
network architecture. From this we find that the size of discriminatory
features is critically influencing how the inference process is distributed
among the layers.
- Abstract(参考訳): 完全畳み込みニューラルネットワークは、ダウンサンプリングとプールの組み合わせで任意のサイズの入力を処理することができる。
しかし, 完全畳み込み画像分類器は入力サイズに依存せず, 性能に有意な差があることが判明した。
より詳しく見ると、入力サイズとモデル性能の間には単純な関係はない(`bigger is better'は存在しない)が、各ネットワークが最適な入力サイズを持ち、最良の結果を示していることがわかる。
本研究では,層活性化のスペクトル解析やプローブ分類などの異なる手法を適用し,ネットワークアーキテクチャに特有の特徴があることを示す。
この結果から、識別的特徴の大きさが、層間での推論プロセスの分散方法に重大な影響を与えていることが判明した。
関連論文リスト
- Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Superior generalization of smaller models in the presence of significant
label noise [6.855361451300868]
誤ラベルされた例が多数存在する場合、ネットワークサイズをある程度拡大することは有害であることを示す。
特に、もともと単調または二重降下試験損失曲線は、ラベルノイズが増加するとU字型曲線となる。
ネットワークサイズが学習関数の滑らかさに与える影響を実証的に検討し,ラベルノイズによって,もともとはサイズと滑らかさの負の相関が反転していることを確認した。
論文 参考訳(メタデータ) (2022-08-17T00:51:27Z) - BSNet: Bi-Similarity Network for Few-shot Fine-grained Image
Classification [35.50808687239441]
いわゆるtextitBi-Similarity Network (textitBSNet) を提案する。
両相似モジュールは、多様な特性の2つの類似度尺度に従って特徴写像を学習する。
このようにして、モデルはより差別的で類似度に富んだ特徴を、よりきめ細かい画像の少ないショットから学習することができる。
論文 参考訳(メタデータ) (2020-11-29T08:38:17Z) - GOCor: Bringing Globally Optimized Correspondence Volumes into Your
Neural Network [176.3781969089004]
特徴相関層は、画像ペア間の密接な対応を含むコンピュータビジョン問題において、重要なニューラルネットワークモジュールとして機能する。
我々は,特徴相関層の直接置換として機能する,完全に微分可能な密マッチングモジュール GOCor を提案する。
本手法は,幾何マッチング,光学フロー,密接なセマンティックマッチングのタスクにおいて,特徴相関層を著しく上回っている。
論文 参考訳(メタデータ) (2020-09-16T17:33:01Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Deep Convolutional Neural Network for Identifying Seam-Carving Forgery [10.324492319976798]
本稿では,畳み込み型ニューラルネットワーク(CNN)を用いたシーム彫刻に基づく画像の分類と拡大手法を提案する。
本研究は,3クラス分類(オリジナル,シーム挿入,シーム除去)における最先端性能を示す。
論文 参考訳(メタデータ) (2020-07-05T17:20:51Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。