論文の概要: DISCO: accurate Discrete Scale Convolutions
- arxiv url: http://arxiv.org/abs/2106.02733v1
- Date: Fri, 4 Jun 2021 21:48:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:11:58.852423
- Title: DISCO: accurate Discrete Scale Convolutions
- Title(参考訳): DISCO: 正確な離散スケールの畳み込み
- Authors: Ivan Sosnovik, Artem Moskalev, Arnold Smeulders
- Abstract要約: スケールは、多くのビジョンタスクにおいて与えられた、乱雑な要因と見なされることが多い。そうすると、学習中により多くのデータを必要とする要因の1つである。
我々は,スケールの粒度とフィルタサイズが小さい問題に適用可能な,高精度なスケール等価畳み込みニューラルネットワーク(SE-CNN)を提案する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scale is often seen as a given, disturbing factor in many vision tasks. When
doing so it is one of the factors why we need more data during learning. In
recent work scale equivariance was added to convolutional neural networks. It
was shown to be effective for a range of tasks. We aim for accurate
scale-equivariant convolutional neural networks (SE-CNNs) applicable for
problems where high granularity of scale and small filter sizes are required.
Current SE-CNNs rely on weight sharing and filter rescaling, the latter of
which is accurate for integer scales only. To reach accurate scale
equivariance, we derive general constraints under which scale-convolution
remains equivariant to discrete rescaling. We find the exact solution for all
cases where it exists, and compute the approximation for the rest. The discrete
scale-convolution pays off, as demonstrated in a new state-of-the-art
classification on MNIST-scale and improving the results on STL-10. With the
same SE scheme, we also improve the computational effort of a scale-equivariant
Siamese tracker on OTB-13.
- Abstract(参考訳): スケールは、多くのビジョンタスクにおいて、与えられた、乱雑な要因と見なされることが多い。
そうすることで、学習中により多くのデータが必要な理由の1つになります。
最近の作業スケールでは、畳み込みニューラルネットワークに等分散が加えられた。
様々なタスクに有効であることが示されている。
我々は,スケールの粒度とフィルタサイズが小さい問題に対して,高精度なスケール等価畳み込みニューラルネットワーク(SE-CNN)を提案する。
現在のSE-CNNは重み付けとフィルタ再スケーリングに依存しており、後者は整数スケールでのみ正確である。
正確なスケール等分散を達成するために、スケール畳み込みが離散再スケーリングに同変のままである一般的な制約を導出する。
存在するすべての場合の正確な解を見つけ、残りの場合の近似を計算する。
mnist-scaleの新たな最先端分類とstl-10の結果の改善で示されるように、離散的なスケール畳み込みが効果を発揮する。
また,同じSE方式により,OTB-13上でのスケール等価なSiameseトラッカーの計算作業も改善する。
関連論文リスト
- Improved Generalization of Weight Space Networks via Augmentations [53.87011906358727]
深度重み空間(DWS)における学習は新たな研究方向であり、2次元および3次元神経場(INRs, NeRFs)への応用
我々は、この過度な適合の理由を実証的に分析し、主要な理由は、DWSデータセットの多様性の欠如であることがわかった。
そこで本研究では,重み空間におけるデータ拡張戦略について検討し,重み空間に適応したMixUp法を提案する。
論文 参考訳(メタデータ) (2024-02-06T15:34:44Z) - Truly Scale-Equivariant Deep Nets with Fourier Layers [14.072558848402362]
コンピュータビジョンでは、モデルが画像の解像度の変化に適応し、画像分割などのタスクを効果的に実行できなければならない。
最近の研究は、ウェイトシェアリングとカーネルのリサイズを通じて、スケール平等な畳み込みニューラルネットワークの開発を進展させた。
本稿では,Fourier層に基づく新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-06T07:32:27Z) - Riesz networks: scale invariant neural networks in a single forward pass [0.7673339435080445]
本稿では,新しいスケール不変ニューラルネットワークであるRiesz Networkを紹介する。
適用例として,コンクリートのトモグラフィー画像におけるひび割れの検出とセグメンテーションについて考察する。
次に, 広範囲のひび割れ幅を特徴とする, シミュレーション画像と実断層画像のセグメンテーション性能を検証する。
論文 参考訳(メタデータ) (2023-05-08T12:39:49Z) - Scale-Equivariant Deep Learning for 3D Data [44.52688267348063]
畳み込みニューラルネットワーク(CNN)は、画像の位置に関係なく物体を認識する。
本稿では,3次元データに対するスケール・等価な畳み込みネットワーク層を提案する。
本実験は,3次元医用画像解析の尺度等式化における提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2023-04-12T13:56:12Z) - Rotation-Scale Equivariant Steerable Filters [1.213915839836187]
生検組織のデジタル組織像は、任意の向きと倍率で撮影でき、異なる解像度で保存できる。
本稿では、ステアブルフィルタとスケール空間理論を組み込んだ回転スケール可変フィルタ(RSESF)を提案する。
我々の手法は他の手法よりも優れており、トレーニング可能なパラメータは少なく、GPUリソースも少ない。
論文 参考訳(メタデータ) (2023-04-10T14:13:56Z) - Just a Matter of Scale? Reevaluating Scale Equivariance in Convolutional
Neural Networks [3.124871781422893]
畳み込みネットワークはスケールの変動に不変ではなく、異なる大きさのオブジェクトに一般化できない。
重みを並列に共有した再スケールカーネルを多数適用し,最も適切なカーネルを選択するモデル群を新たに導入する。
STIRにおける実験結果から,既存の手法と提案手法の両方が,標準的な畳み込みよりもスケール全体の一般化を向上できることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T15:27:05Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - BN-invariant sharpness regularizes the training model to better
generalization [72.97766238317081]
BN下等価ネットワークに対して一貫した値を与えるシャープネス測定法BN-Sharpnessを提案する。
我々はBNシャープネスを用いてトレーニングを正規化し、アルゴリズムを設計し、新しい正規化対象を最小化する。
論文 参考訳(メタデータ) (2021-01-08T10:23:24Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - AdamP: Slowing Down the Slowdown for Momentum Optimizers on
Scale-invariant Weights [53.8489656709356]
正規化技術は現代の深層学習の恩恵である。
しかし、運動量を導入することで、スケール不変の重みに対する効果的なステップサイズが急速に小さくなることがしばしば見過ごされる。
本稿では,この2つの材料の組み合わせが,有効ステップサイズと準最適モデル性能の早期劣化につながることを検証した。
論文 参考訳(メタデータ) (2020-06-15T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。