論文の概要: WaveMix: A Resource-efficient Neural Network for Image Analysis
- arxiv url: http://arxiv.org/abs/2205.14375v5
- Date: Sat, 30 Mar 2024 13:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 16:23:34.902185
- Title: WaveMix: A Resource-efficient Neural Network for Image Analysis
- Title(参考訳): WaveMix:画像解析のための資源効率の良いニューラルネットワーク
- Authors: Pranav Jeevan, Kavitha Viswanathan, Anandu A S, Amit Sethi,
- Abstract要約: WaveMixはリソース効率が高く、汎用的でスケーラブルです。
ネットワークは、最先端の畳み込みニューラルネットワークと同等またはより正確な精度を達成する。
WaveMixはCityscapesのセグメンテーションのための新しいベンチマークを確立する。
- 参考スコア(独自算出の注目度): 3.4927288761640565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel neural architecture for computer vision -- WaveMix -- that is resource-efficient and yet generalizable and scalable. While using fewer trainable parameters, GPU RAM, and computations, WaveMix networks achieve comparable or better accuracy than the state-of-the-art convolutional neural networks, vision transformers, and token mixers for several tasks. This efficiency can translate to savings in time, cost, and energy. To achieve these gains we used multi-level two-dimensional discrete wavelet transform (2D-DWT) in WaveMix blocks, which has the following advantages: (1) It reorganizes spatial information based on three strong image priors -- scale-invariance, shift-invariance, and sparseness of edges -- (2) in a lossless manner without adding parameters, (3) while also reducing the spatial sizes of feature maps, which reduces the memory and time required for forward and backward passes, and (4) expanding the receptive field faster than convolutions do. The whole architecture is a stack of self-similar and resolution-preserving WaveMix blocks, which allows architectural flexibility for various tasks and levels of resource availability. WaveMix establishes new benchmarks for segmentation on Cityscapes; and for classification on Galaxy 10 DECals, Places-365, five EMNIST datasets, and iNAT-mini and performs competitively on other benchmarks. Our code and trained models are publicly available.
- Abstract(参考訳): 我々は、リソース効率が高く、一般化可能でスケーラブルなコンピュータビジョンのための新しいニューラルネットワーク、WaveMixを提案する。
トレーニング可能なパラメータやGPU RAM、計算は少ないが、WaveMixネットワークは、いくつかのタスクで最先端の畳み込みニューラルネットワーク、ビジョントランスフォーマー、トークンミキサーと同等またはより良い精度を達成する。
この効率性は、時間、コスト、エネルギーの節約に変換できる。
これらのゲインを達成するために、WaveMixブロックで多レベル2次元離散ウェーブレット変換(2D-DWT)を用い、(1)スケール不変性、シフト不変性、エッジのスパース性という3つの強い画像先行値に基づいて空間情報を再構成し、(2)パラメータを追加せずに損失のない方法で、(3)特徴マップの空間サイズを小さくし、前向きと後向きのパスに必要なメモリと時間を短縮し、(4)畳み込みよりも早く受容野を拡張する。
アーキテクチャ全体は、自己相似で解像度を保ったWaveMixブロックのスタックであり、様々なタスクやリソース可用性のレベルに対して、アーキテクチャの柔軟性を可能にする。
WaveMixは、Cityscapesのセグメンテーションのための新しいベンチマークを確立し、Galaxy 10 DECals、Places-365、5つのEMNISTデータセット、iNAT-miniを分類し、他のベンチマークで競合的に実行する。
私たちのコードとトレーニングされたモデルは公開されています。
関連論文リスト
- WaveMixSR-V2: Enhancing Super-resolution with Higher Efficiency [4.093503153499691]
本稿では,従来の畳み込み層をピクセルシャッフル操作に置き換えることで,WaveMixSRアーキテクチャの拡張版を提案する。
我々の実験は、拡張モデルであるWaveMixSR-V2が、複数の超解像タスクにおいて、他のアーキテクチャよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-16T04:16:52Z) - WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Leveraging Neural Radiance Field in Descriptor Synthesis for Keypoints Scene Coordinate Regression [1.2974519529978974]
本稿では,Neural Radiance Field (NeRF) を用いたキーポイント記述子合成のためのパイプラインを提案する。
新たなポーズを生成してトレーニングされたNeRFモデルに入力して新しいビューを生成することで、当社のアプローチは、データスカース環境でのKSCRの機能を強化します。
提案システムは,最大50%のローカライズ精度向上を実現し,データ合成に要するコストをわずかに抑えることができた。
論文 参考訳(メタデータ) (2024-03-15T13:40:37Z) - Dynamic Frame Interpolation in Wavelet Domain [57.25341639095404]
ビデオフレームは、より流動的な視覚体験のためにフレームレートを上げることができる、重要な低レベルな計算ビジョンタスクである。
既存の手法は、高度なモーションモデルと合成ネットワークを利用することで大きな成功を収めた。
WaveletVFIは、同様の精度を維持しながら最大40%の計算を削減できるため、他の最先端技術に対してより効率的に処理できる。
論文 参考訳(メタデータ) (2023-09-07T06:41:15Z) - WaveMixSR: A Resource-efficient Neural Network for Image
Super-resolution [2.0477182014909205]
本稿では、WaveMixアーキテクチャに基づく画像超解像のための新しいニューラルネットワーク、WaveMixSRを提案する。
WaveMixSRは、すべてのデータセットで競合性能を達成し、複数の超解像度タスクでBSD100データセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2023-07-01T21:25:03Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - WaveMix: Resource-efficient Token Mixing for Images [2.7188347260210466]
本稿では,空間トークン混合のためのマルチスケール2次元離散ウェーブレット変換(DWT)を用いた代替ニューラルネットワークとしてWaveMixを提案する。
WaveMix は EMNIST Byclass と EMNIST Balanced データセットで State-of-the-art (SOTA) を達成している。
論文 参考訳(メタデータ) (2022-03-07T20:15:17Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Wide-band butterfly network: stable and efficient inversion via
multi-frequency neural networks [1.2891210250935143]
広帯域散乱データから逆散乱マップを近似するために,広帯域蝶ネットワーク(WideBNet)と呼ばれるエンドツーエンドのディープラーニングアーキテクチャを導入する。
このアーキテクチャでは、バタフライの分解のような計算調和解析や、クーリー・テューキーFFTアルゴリズムのような伝統的なマルチスケール手法のツールが組み込まれている。
論文 参考訳(メタデータ) (2020-11-24T21:48:43Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。