論文の概要: OneDConv: Generalized Convolution For Transform-Invariant Representation
- arxiv url: http://arxiv.org/abs/2201.05781v1
- Date: Sat, 15 Jan 2022 07:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:54:07.332421
- Title: OneDConv: Generalized Convolution For Transform-Invariant Representation
- Title(参考訳): OneDConv: 変換不変表現のための一般化畳み込み
- Authors: Tong Zhang, Haohan Weng, Ke Yi, C. L. Philip Chen
- Abstract要約: 一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
- 参考スコア(独自算出の注目度): 76.15687106423859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have exhibited their great power in a
variety of vision tasks. However, the lack of transform-invariant property
limits their further applications in complicated real-world scenarios. In this
work, we proposed a novel generalized one dimension convolutional operator
(OneDConv), which dynamically transforms the convolution kernels based on the
input features in a computationally and parametrically efficient manner. The
proposed operator can extract the transform-invariant features naturally. It
improves the robustness and generalization of convolution without sacrificing
the performance on common images. The proposed OneDConv operator can substitute
the vanilla convolution, thus it can be incorporated into current popular
convolutional architectures and trained end-to-end readily. On several popular
benchmarks, OneDConv outperforms the original convolution operation and other
proposed models both in canonical and distorted images.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、様々な視覚タスクにおいて大きな力を発揮している。
しかし、変換不変性の欠如は、複雑な実世界のシナリオにおけるさらなる応用を制限する。
本研究では,入力特性に基づく畳み込み核を計算的かつパラメトリックに効率的な方法で動的に変換する,新しい一般化された一次元畳み込み作用素 (onedconv) を提案する。
提案した演算子は変換不変の特徴を自然に抽出することができる。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
提案する onedconv 演算子はバニラ畳み込みを置き換えることができるため、現在の一般的な畳み込みアーキテクチャや訓練されたエンドツーエンドアーキテクチャに容易に組み込むことができる。
いくつかの人気のあるベンチマークでは、OneDConvはオリジナルの畳み込み操作と、標準画像と歪んだ画像の両方で提案された他のモデルより優れている。
関連論文リスト
- LDConv: Linear deformable convolution for improving convolutional neural networks [18.814748446649627]
Linear Deformable Convolution (LDConv) は、ネットワーク性能を改善するために畳み込み操作を置き換えることができる、プラグアンドプレイの畳み込み操作である。
LDConvは、標準畳み込みと変形可能なConvのパラメータ数の成長傾向を線形成長に補正する。
論文 参考訳(メタデータ) (2023-11-20T07:54:54Z) - Convolutions and More as Einsum: A Tensor Network Perspective with Advances for Second-Order Methods [2.8645507575980074]
我々はそれらをテンソルネットワーク(TN)として見ることで畳み込みを単純化する
TN はダイアグラムを描画し、微分のような関数変換を実行するようにそれらを操作し、それらを固有値で効率的に評価することで、基礎となるテンソル乗法を推論することができる。
我々のTN実装は、標準実装のメモリオーバーヘッドをなくしながら、最大4.5倍のKFAC変異を加速し、近似バックプロパゲーションのための新しいハードウェア効率の良いドロップアウトを可能にする。
論文 参考訳(メタデータ) (2023-07-05T13:19:41Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Empowering Networks With Scale and Rotation Equivariance Using A
Similarity Convolution [16.853711292804476]
翻訳, 回転, スケーリングに関して, 同時同値のCNNを実現する手法を考案する。
提案手法は畳み込みのような動作を定義し,提案したスケーラブルなフーリエ・アーガン表現に基づいて等価性を保証する。
画像分類作業におけるアプローチの有効性を検証し、その頑健さと、スケールされた入力と回転した入力の両方に対する一般化能力を示す。
論文 参考訳(メタデータ) (2023-03-01T08:43:05Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Dynamic Clone Transformer for Efficient Convolutional Neural Netwoks [0.0]
本稿では,多経路完全連結パターン(MPFC)という概念を導入し,位相パターンの相互依存性,精度,効率性を再考する。
MPFCにインスパイアされた動的クローントランス (DCT) と呼ばれるデュアルブランチモジュールを提案し、入力から複数の複製を生成する。
論文 参考訳(メタデータ) (2021-06-12T13:42:28Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。