論文の概要: AugOp: Inject Transformation into Neural Operator
- arxiv url: http://arxiv.org/abs/2211.12514v1
- Date: Wed, 23 Nov 2022 11:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:22:18.122213
- Title: AugOp: Inject Transformation into Neural Operator
- Title(参考訳): AugOp: 神経オペレータへのインジェクション変換
- Authors: Longqing Ye
- Abstract要約: 本稿では,正規畳み込み演算子を訓練中に追加のグループワイド変換を注入し,推論中にそれを回復させることにより,単純で一般的な方法で正規畳み込み演算子を増強する手法を提案する。
通常の畳み込み演算子と比較して、我々のアプローチ(AugConv)は、トレーニング中のモデル性能を改善するために、より大きな学習能力を導入することができる。
画像分類データセットCifar-10の結果、AugResNetはモデル性能の点でベースラインを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a simple and general approach to augment regular
convolution operator by injecting extra group-wise transformation during
training and recover it during inference. Extra transformation is carefully
selected to ensure it can be merged with regular convolution in each group and
will not change the topological structure of regular convolution during
inference. Compared with regular convolution operator, our approach (AugConv)
can introduce larger learning capacity to improve model performance during
training but will not increase extra computational overhead for model
deployment. Based on ResNet, we utilize AugConv to build convolutional neural
networks named AugResNet. Result on image classification dataset Cifar-10 shows
that AugResNet outperforms its baseline in terms of model performance.
- Abstract(参考訳): 本稿では,正規畳み込み演算子を訓練中に余分なグループワイズ変換を注入し,推論中にそれを回復させることにより,単純で一般的な方法を提案する。
余剰変換は、各群における正規畳み込みとマージできることを保証するために慎重に選択され、推論中の正規畳み込みの位相構造は変化しない。
通常の畳み込み演算子と比較すると,本手法(augconv)はトレーニング中のモデル性能を改善するために,より大きな学習能力を導入することができるが,モデル展開のための計算オーバーヘッドは増大しない。
ResNetに基づいて、AugConvを使用してAugResNetという畳み込みニューラルネットワークを構築します。
画像分類データセットCifar-10の結果、AugResNetはモデル性能の点でベースラインを上回っている。
関連論文リスト
- Group Orthogonalization Regularization For Vision Models Adaptation and
Robustness [31.43307762723943]
同じ層内のフィルタ群間の正則性を促進する計算効率の良い正規化手法を提案する。
実験により,近年の拡散モデルと視覚変換器(ViT)の適応手法に組み込むと,この正規化により下流タスクの性能が向上することが示された。
論文 参考訳(メタデータ) (2023-06-16T17:53:16Z) - Empowering Networks With Scale and Rotation Equivariance Using A
Similarity Convolution [16.853711292804476]
翻訳, 回転, スケーリングに関して, 同時同値のCNNを実現する手法を考案する。
提案手法は畳み込みのような動作を定義し,提案したスケーラブルなフーリエ・アーガン表現に基づいて等価性を保証する。
画像分類作業におけるアプローチの有効性を検証し、その頑健さと、スケールされた入力と回転した入力の両方に対する一般化能力を示す。
論文 参考訳(メタデータ) (2023-03-01T08:43:05Z) - HorNet: Efficient High-Order Spatial Interactions with Recursive Gated
Convolutions [109.33112814212129]
本稿では,畳み込みに基づくフレームワークを用いて,入力適応型,長距離,高次空間相互作用を効率的に実装可能であることを示す。
本稿では、ゲート畳み込みと高次空間相互作用を行うRecursive Gated Convolution(textitgtextitn$Conv)を提案する。
この操作に基づいて,HorNetという汎用視覚バックボーンを新たに構築する。
論文 参考訳(メタデータ) (2022-07-28T17:59:02Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - Dense Unsupervised Learning for Video Segmentation [49.46930315961636]
ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習のための新しいアプローチを提案する。
これまでの研究とは異なり、我々の定式化によって、完全に畳み込みの仕組みで、密集した特徴表現を直接学習することができる。
我々の手法は、トレーニングデータや計算能力が大幅に少ないにもかかわらず、以前の作業のセグメンテーション精度を超える。
論文 参考訳(メタデータ) (2021-11-11T15:15:11Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Involution: Inverting the Inherence of Convolution for Visual
Recognition [72.88582255910835]
本稿では,畳み込みの原理を逆転させることにより,深層ニューラルネットワークの新たな原子操作を提案する。
提案する畳み込み演算子は、視覚認識のための新しい世代のニューラルネットワークを構築するための基本ブロックとして利用することができる。
当社のInvolutionベースのモデルは、ResNet-50を使用した畳み込みベースラインのパフォーマンスを最大1.6%の精度、2.5%と2.4%のバウンディングボックスAP、4.7%は絶対にIoUを意味します。
論文 参考訳(メタデータ) (2021-03-10T18:40:46Z) - More Is More -- Narrowing the Generalization Gap by Adding
Classification Heads [8.883733362171032]
我々は「TransNet」と呼ばれる入力変換に基づく既存のニューラルネットワークモデルのためのアーキテクチャ拡張を導入する。
私たちのモデルは、トレーニング時間のみに使用でき、予測のために刈り取られ、結果としてベースモデルと同等のアーキテクチャになります。
論文 参考訳(メタデータ) (2021-02-09T16:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。