論文の概要: Fast Fourier Transformation for Optimizing Convolutional Neural Networks
in Object Recognition
- arxiv url: http://arxiv.org/abs/2010.04257v1
- Date: Thu, 8 Oct 2020 21:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:59:11.667633
- Title: Fast Fourier Transformation for Optimizing Convolutional Neural Networks
in Object Recognition
- Title(参考訳): 物体認識における畳み込みニューラルネットワーク最適化のための高速フーリエ変換
- Authors: Varsha Nair, Moitrayee Chatterjee, Neda Tavakoli, Akbar Siami Namin,
Craig Snoeyink
- Abstract要約: 本稿では、高速フーリエ変換に基づくU-Net(完全畳み込みネットワーク)を用いて、ニューラルネットワークにおける画像畳み込みを実現することを提案する。
ネットワークのトレーニング時間を改善するために,FFTベースの畳み込みニューラルネットワークを実装した。
コンボリューション期間中のトレーニング時間は600-700$ms/stepから400-500$ms/stepに改善した。
- 参考スコア(独自算出の注目度): 1.0499611180329802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes to use Fast Fourier Transformation-based U-Net (a refined
fully convolutional networks) and perform image convolution in neural networks.
Leveraging the Fast Fourier Transformation, it reduces the image convolution
costs involved in the Convolutional Neural Networks (CNNs) and thus reduces the
overall computational costs. The proposed model identifies the object
information from the images. We apply the Fast Fourier transform algorithm on
an image data set to obtain more accessible information about the image data,
before segmenting them through the U-Net architecture. More specifically, we
implement the FFT-based convolutional neural network to improve the training
time of the network. The proposed approach was applied to publicly available
Broad Bioimage Benchmark Collection (BBBC) dataset. Our model demonstrated
improvement in training time during convolution from $600-700$ ms/step to
$400-500$ ms/step. We evaluated the accuracy of our model using Intersection
over Union (IoU) metric showing significant improvements.
- Abstract(参考訳): 本稿では,高速フーリエ変換に基づくu-net(完全畳み込みネットワーク)を用いて,ニューラルネットワークにおける画像畳み込みを行う手法を提案する。
高速フーリエ変換を利用して、畳み込みニューラルネットワーク(cnns)に関連する画像畳み込みコストを削減し、全体的な計算コストを削減する。
提案モデルでは,画像から対象情報を識別する。
画像データセットに高速フーリエ変換アルゴリズムを適用し、U-Netアーキテクチャでセグメント化する前に、画像データについてよりアクセスしやすい情報を得る。
具体的には、FFTベースの畳み込みニューラルネットワークを実装し、ネットワークのトレーニング時間を改善する。
提案手法は一般に公開されているBroad Bioimage Benchmark Collection (BBBC)データセットに適用された。
コンボリューション期間中のトレーニング時間は600-700$ms/stepから400-500$ms/stepに改善した。
IoU(Intersection over Union)測定値を用いて,本モデルの精度を評価したところ,有意な改善が認められた。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Fourier-Net+: Leveraging Band-Limited Representation for Efficient 3D
Medical Image Registration [62.53130123397081]
U-Netスタイルのネットワークは、高密度変位場を予測するために、教師なし画像登録に一般的に利用される。
まず,コストのかかるU-Netスタイルの拡張パスをパラメータフリーモデル駆動デコーダに置き換えるFourier-Netを提案する。
次に、Fourier-Net+を導入し、さらに画像の帯域制限空間表現を入力とし、U-Netスタイルのネットワークの収縮経路における畳み込み層の数を減少させる。
論文 参考訳(メタデータ) (2023-07-06T13:57:12Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Patch Based Transformation for Minimum Variance Beamformer Image
Approximation Using Delay and Sum Pipeline [0.0]
本研究では,空間内の固定領域に対する遅延補償無線周波数(RF)パッチをU-Netアーキテクチャによって変換するパッチレベルU-Netベースニューラルネットワークを提案する。
提案手法は、ネットワークのパラメータにおけるMVDR手法によって行われるデータ駆動重み適応を考慮に入れた、RFデータ空間の非線形変換を扱う。
論文 参考訳(メタデータ) (2021-10-19T19:36:59Z) - Augmentation Inside the Network [1.5260179407438161]
本稿では,コンピュータビジョン問題に対するデータ拡張手法をシミュレートする手法であるネットワーク内の拡張について述べる。
本稿では,画像分類のためのImageNet-2012およびCIFAR-100データセットについて検証する。
論文 参考訳(メタデータ) (2020-12-19T20:07:03Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。