論文の概要: Learning in the Frequency Domain
- arxiv url: http://arxiv.org/abs/2002.12416v4
- Date: Tue, 31 Mar 2020 23:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 08:58:45.116074
- Title: Learning in the Frequency Domain
- Title(参考訳): 周波数領域での学習
- Authors: Kai Xu, Minghai Qin, Fei Sun, Yuhao Wang, Yen-Kuang Chen, Fengbo Ren
- Abstract要約: 精度を損なわずに除去できる自明な周波数成分を同定する学習ベース周波数選択法を提案する。
実験の結果,静的チャネル選択を用いた周波数領域での学習は,従来の空間ダウンサンプリング手法よりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 20.045740082113845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have achieved remarkable success in computer vision
tasks. Existing neural networks mainly operate in the spatial domain with fixed
input sizes. For practical applications, images are usually large and have to
be downsampled to the predetermined input size of neural networks. Even though
the downsampling operations reduce computation and the required communication
bandwidth, it removes both redundant and salient information obliviously, which
results in accuracy degradation. Inspired by digital signal processing
theories, we analyze the spectral bias from the frequency perspective and
propose a learning-based frequency selection method to identify the trivial
frequency components which can be removed without accuracy loss. The proposed
method of learning in the frequency domain leverages identical structures of
the well-known neural networks, such as ResNet-50, MobileNetV2, and Mask R-CNN,
while accepting the frequency-domain information as the input. Experiment
results show that learning in the frequency domain with static channel
selection can achieve higher accuracy than the conventional spatial
downsampling approach and meanwhile further reduce the input data size.
Specifically for ImageNet classification with the same input size, the proposed
method achieves 1.41% and 0.66% top-1 accuracy improvements on ResNet-50 and
MobileNetV2, respectively. Even with half input size, the proposed method still
improves the top-1 accuracy on ResNet-50 by 1%. In addition, we observe a 0.8%
average precision improvement on Mask R-CNN for instance segmentation on the
COCO dataset.
- Abstract(参考訳): ディープニューラルネットワークは、コンピュータビジョンタスクで著しく成功した。
既存のニューラルネットワークは主に一定の入力サイズを持つ空間領域で動作する。
実用的なアプリケーションでは、イメージは通常大きく、ニューラルネットワークの所定の入力サイズにダウンサンプリングする必要がある。
ダウンサンプリング処理は計算量と通信帯域幅を減少させるが、冗長かつ健全な情報の両方を排除し、精度を低下させる。
ディジタル信号処理理論に着想を得て,周波数観点からスペクトルバイアスを分析し,精度を損なうことなく除去できる自明な周波数成分を同定する学習ベース周波数選択法を提案する。
提案手法は、周波数領域情報を入力として受け入れつつ、ResNet-50、MobileNetV2、Mask R-CNNなどのよく知られたニューラルネットワークの同一構造を利用する。
実験の結果,静的チャネル選択による周波数領域学習は,従来の空間ダウンサンプリング手法よりも精度が高く,入力データサイズも小さくなることがわかった。
特に入力サイズが同じimagenet分類では,resnet-50とmobilenetv2で1.41%と0.66%のtop-1精度が向上した。
半入力サイズであっても、提案手法はResNet-50上のトップ1の精度を1%向上させる。
さらに,COCOデータセット上でのサンプルセグメンテーションにおいて,Mask R-CNNの平均精度が0.8%向上した。
関連論文リスト
- Automatic Network Adaptation for Ultra-Low Uniform-Precision
Quantization [6.1664476076961146]
一様精度ニューラルネットワーク量子化は、高計算能力のために高密度に充填された演算ユニットを単純化したため、人気を集めている。
層間の量子化誤差の影響に対して不均一な感度を無視し、結果として準最適推論をもたらす。
本研究は,超低精度量子化による精度劣化を軽減するために,ニューラルネットワーク構造を調整するニューラルチャネル拡張と呼ばれる新しいニューラルアーキテクチャ探索を提案する。
論文 参考訳(メタデータ) (2022-12-21T09:41:25Z) - Increasing the Accuracy of a Neural Network Using Frequency Selective
Mesh-to-Grid Resampling [4.211128681972148]
ニューラルネットワークの入力データの処理にFSMR(Keypoint frequency selective mesh-to-grid resampling)を提案する。
ネットワークアーキテクチャや分類タスクによって、トレーニング中のFSMRの適用は学習プロセスに役立ちます。
ResNet50とOxflower17データセットの分類精度は最大4.31ポイント向上できる。
論文 参考訳(メタデータ) (2022-09-28T21:34:47Z) - CONet: Channel Optimization for Convolutional Neural Networks [33.58529066005248]
畳み込みニューラルネットワーク(CNN)におけるチャネルサイズ最適化の検討
ネットワーク層をまたいだCNNのチャネルサイズを自動的に最適化する,効率的な動的スケーリングアルゴリズムであるConetを導入します。
CIFAR10/100およびImageNetデータセット上で実験を行い、ConetがResNet、DARTS、DARTS+空間で探索された効率的で正確なアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2021-08-15T21:48:25Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Broadcasted Residual Learning for Efficient Keyword Spotting [7.335747584353902]
モデルサイズと計算負荷を小さくして高精度な放送残差学習手法を提案する。
また,放送残差学習に基づく新しいネットワークアーキテクチャ,BC-Residual Network(BC-ResNet)を提案する。
BC-ResNetsは、Googleの音声コマンドデータセット v1 と v2 で、最先端の98.0% と98.7% のトップ-1 の精度をそれぞれ達成している。
論文 参考訳(メタデータ) (2021-06-08T06:55:39Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Centimeter-Level Indoor Localization using Channel State Information
with Recurrent Neural Networks [12.193558591962754]
本稿では,線形アンテナから収集した実CSIデータを用いて,センチメートルレベルの屋内位置推定を行うニューラルネットワーク手法を提案する。
チャネル応答の振幅または相関行列を入力として使用することにより、データサイズを大幅に削減し、ノイズを抑制することができる。
また、リカレントニューラルネットワーク(RNN)と信号雑音比(SNR)情報によるユーザ動作軌跡の整合性を利用して、推定精度をさらに向上する。
論文 参考訳(メタデータ) (2020-02-04T17:10:18Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。