論文の概要: QCNN: Quadrature Convolutional Neural Network with Application to
Unstructured Data Compression
- arxiv url: http://arxiv.org/abs/2211.05151v1
- Date: Wed, 9 Nov 2022 19:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:55:45.329232
- Title: QCNN: Quadrature Convolutional Neural Network with Application to
Unstructured Data Compression
- Title(参考訳): QCNN: 4次畳み込みニューラルネットワークと非構造化データ圧縮への応用
- Authors: Kevin Doherty, Cooper Simpson, Stephen Becker, Alireza Doostan
- Abstract要約: 私たちは、QuadConvと呼ばれるディープラーニングアーキテクチャのための新しい畳み込み層を提示します。
演算子は非構造化データに対して明示的に開発され、任意の場所でサンプリング可能な連続カーネルを学習することでこれを実現する。
ニューラル圧縮の設定では、QuadConvベースのオートエンコーダ(QCNN)が、標準的な離散畳み込みの性能と一致することを示す。
- 参考スコア(独自算出の注目度): 10.021291730661163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new convolution layer for deep learning architectures which we
call QuadConv -- an approximation to continuous convolution via quadrature. Our
operator is developed explicitly for use on unstructured data, and accomplishes
this by learning a continuous kernel that can be sampled at arbitrary
locations. In the setting of neural compression, we show that a QuadConv-based
autoencoder, resulting in a Quadrature Convolutional Neural Network (QCNN), can
match the performance of standard discrete convolutions on structured uniform
data, as in CNNs, and maintain this accuracy on unstructured data.
- Abstract(参考訳): 本稿では,我々がquadconvと呼ぶ深層学習アーキテクチャのための新しい畳み込み層を提案する。
我々のオペレータは非構造化データでの使用のために明示的に開発され、任意の場所でサンプルできる連続カーネルを学習することでこれを達成する。
ニューラルネットワークの設定において、QuadConvベースのオートエンコーダ(QCNN)は、CNNのように構造化された均一データ上での標準的な離散畳み込みの性能と一致し、非構造化データ上でこの精度を維持することができることを示す。
関連論文リスト
- Multi-Convformer: Extending Conformer with Multiple Convolution Kernels [64.4442240213399]
我々は,マルチコンバータを導入し,複数のコンバータカーネルをゲーティングと合わせてコンバータの畳み込みモジュール内で利用する。
我々のモデルは、よりパラメータ効率の良いCgMLPやE-Branchformerといった既存のConformerと性能的に競合する。
我々は4つの異なるデータセットと3つの異なるモデリングパラダイムにまたがって、我々のアプローチをConformerとその変種と経験的に比較し、最大8%の相対的な単語誤り率(WER)の改善を示す。
論文 参考訳(メタデータ) (2024-07-04T08:08:12Z) - LDConv: Linear deformable convolution for improving convolutional neural networks [18.814748446649627]
Linear Deformable Convolution (LDConv) は、ネットワーク性能を改善するために畳み込み操作を置き換えることができる、プラグアンドプレイの畳み込み操作である。
LDConvは、標準畳み込みと変形可能なConvのパラメータ数の成長傾向を線形成長に補正する。
論文 参考訳(メタデータ) (2023-11-20T07:54:54Z) - Soft Convex Quantization: Revisiting Vector Quantization with Convex
Optimization [40.1651740183975]
ベクトル量子化(VQ)の直接代用として,ソフト凸量子化(SCQ)を提案する。
SCQは微分凸最適化(DCO)層のように機能する。
CIFAR-10, GTSRB, LSUNデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2023-10-04T17:45:14Z) - Why Approximate Matrix Square Root Outperforms Accurate SVD in Global
Covariance Pooling? [59.820507600960745]
本稿では,前方通過のSVDと後方伝播のPad'e近似を用いて勾配を計算する新しいGCPメタ層を提案する。
提案するメタレイヤは,さまざまなCNNモデルに統合され,大規模および微細なデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-06T08:03:45Z) - CKConv: Continuous Kernel Convolution For Sequential Data [23.228639801282966]
継続的カーネル畳み込みネットワーク(CKCNN)は、一様でないサンプルデータセットと不規則にサンプリングされたデータを扱うように設計されている。
CKCNNは、これらの目的のために設計されたニューラルなODEよりも、はるかに高速で簡単な方法で適合または性能が向上する。
論文 参考訳(メタデータ) (2021-02-04T13:51:19Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z) - Dynamic Region-Aware Convolution [85.20099799084026]
本稿では,複数のフィルタを対応する空間領域に自動的に割り当てる動的領域認識畳み込み(DRConv)を提案する。
ImageNet分類において、DRConvベースのShuffleNetV2-0.5xは6.3%の相対的な改善と46M乗算加算レベルで67.1%の最先端性能を達成する。
論文 参考訳(メタデータ) (2020-03-27T05:49:57Z) - Quaternion Equivariant Capsule Networks for 3D Point Clouds [58.566467950463306]
本稿では,3次元回転と翻訳に同値な点雲を処理するための3次元カプセルモジュールを提案する。
カプセル間の動的ルーティングをよく知られたWeiszfeldアルゴリズムに接続する。
オペレーターに基づいて、ポーズから幾何学をアンタングルするカプセルネットワークを構築します。
論文 参考訳(メタデータ) (2019-12-27T13:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。