論文の概要: Accurate Shift Invariant Convolutional Neural Networks Using Gaussian-Hermite Moments
- arxiv url: http://arxiv.org/abs/2603.17098v1
- Date: Tue, 17 Mar 2026 19:37:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.372915
- Title: Accurate Shift Invariant Convolutional Neural Networks Using Gaussian-Hermite Moments
- Title(参考訳): ガウス-ハーマイトモーメントを用いた高精度シフト不変畳み込みニューラルネットワーク
- Authors: Jaspreet Singh, Petra Bosilj, Grzegorz Cielniak,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は本質的に不変あるいは同変ではない。
CNNで使用されるダウンサンプリング操作は、CNNのシフト不変性を損なう重要な理由の1つである。
- 参考スコア(独自算出の注目度): 8.659903550327442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The convolutional neural networks (CNNs) are not inherently shift invariant or equivariant. The downsampling operation, used in CNNs, is one of the key reasons which breaks the shift invariant property of a CNN. Conversely, downsampling operation is important to improve computational efficiency and increase the area of the receptive field for more contextual information. In this work, we propose Gaussian-Hermite Sampling (GHS), a novel downsampling strategy designed to achieve accurate shift invariance. GHS leverages Gaussian-Hermite polynomials to perform shift-consistent sampling, enabling CNN layers to maintain invariance to arbitrary spatial shifts prior to training. When integrated into standard CNN architectures, the proposed method embeds shift invariance directly at the layer level without requiring architectural modifications or additional training procedures. We evaluate the proposed approach on CIFAR-10, CIFAR-100, and MNIST-rot datasets. Experimental results demonstrate that GHS significantly improves shift consistency, achieving 100% classification consistency under spatial shifts, while also improving classification accuracy compared to baseline CNN models.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は本質的に不変あるいは同変のシフトではない。
CNNで使用されるダウンサンプリング操作は、CNNのシフト不変性を損なう重要な理由の1つである。
逆に、ダウンサンプリング操作は、計算効率を向上し、より文脈的な情報に対する受容領域の面積を増やすために重要である。
本研究では,正確なシフト不変性を実現するために,ガウス・ハーミットサンプリング(GHS)を提案する。
GHSはガウス・ハーマイト多項式を利用してシフト一貫性サンプリングを行い、CNN層はトレーニング前に任意の空間シフトに不変性を維持することができる。
標準のCNNアーキテクチャに組み込むと、アーキテクチャの変更や追加のトレーニング手順を必要とせずに、層レベルでのシフト不変性を直接埋め込むことができる。
CIFAR-10, CIFAR-100, MNIST-rotデータセットに対する提案手法の評価を行った。
実験の結果,GHSは空間シフト下での分類一貫性を100%向上するとともに,ベースラインCNNモデルと比較して分類精度も向上することがわかった。
関連論文リスト
- Doppler Invariant CNN for Signal Classification [0.0]
本稿では、周波数領域における畳み込みシフトの等価性を利用する複雑な値を持つ畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
ドップラーシフトのない例では, ランダムなドップラーシフトを伴わない場合と, ランダムなドップラーシフトを伴わない場合とで, 本モデルが一貫した分類精度を維持していることを示す。
論文 参考訳(メタデータ) (2025-11-18T16:31:13Z) - Sorted Convolutional Network for Achieving Continuous Rotational
Invariance [56.42518353373004]
テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T18:37:07Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - On the effectiveness of partial variance reduction in federated learning
with heterogeneous data [27.527995694042506]
クライアント間の最終分類層の多様性は、FedAvgアルゴリズムの性能を阻害することを示す。
そこで本研究では,最終層のみの分散還元によるモデル修正を提案する。
同様の通信コストや低い通信コストで既存のベンチマークを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-05T11:56:35Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Improving Sound Event Classification by Increasing Shift Invariance in
Convolutional Neural Networks [14.236193187116047]
近年の研究では、畳み込みネットワークの一般に仮定されるシフト不変性に疑問が呈されている。
我々は、低域フィルタと入ってくる特徴写像の適応サンプリングに基づいて、CNNにおけるシフト不変性を改善する2つの方法を評価する。
これらの修正は、トレーニング可能なパラメータを追加(あるいはごく少数)することなく、考慮すべきすべてのケースにおいて、音事象の分類を一貫して改善することを示します。
論文 参考訳(メタデータ) (2021-07-01T17:21:02Z) - Why Approximate Matrix Square Root Outperforms Accurate SVD in Global
Covariance Pooling? [59.820507600960745]
本稿では,前方通過のSVDと後方伝播のPad'e近似を用いて勾配を計算する新しいGCPメタ層を提案する。
提案するメタレイヤは,さまざまなCNNモデルに統合され,大規模および微細なデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-06T08:03:45Z) - Truly shift-invariant convolutional neural networks [0.0]
近年の研究では、CNNの出力は入力の小さなシフトで大きく変化することが示されている。
本稿では,適応型多相サンプリング(APS)を提案する。これは,畳み込みニューラルネットワークが,シフト下での分類性能において100%整合性を実現するための,単純なサブサンプリング手法である。
論文 参考訳(メタデータ) (2020-11-28T20:57:35Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。