論文の概要: Ultra Low Complexity Deep Learning Based Noise Suppression
- arxiv url: http://arxiv.org/abs/2312.08132v1
- Date: Wed, 13 Dec 2023 13:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 15:23:24.801492
- Title: Ultra Low Complexity Deep Learning Based Noise Suppression
- Title(参考訳): 超低複雑性深層学習に基づく雑音抑圧
- Authors: Shrishti Saha Shetu, Soumitro Chakrabarty, Oliver Thiergart, Edwin
Mabande
- Abstract要約: 本稿では,資源制約されたデバイス上でのリアルタイム音声強調において,ディープニューラルネットワークの計算複雑性を低減させる革新的な手法を提案する。
提案アルゴリズムは,従来の最先端手法の3倍から4倍の計算量とメモリ使用量を示す。
- 参考スコア(独自算出の注目度): 3.4373727078460665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces an innovative method for reducing the computational
complexity of deep neural networks in real-time speech enhancement on
resource-constrained devices. The proposed approach utilizes a two-stage
processing framework, employing channelwise feature reorientation to reduce the
computational load of convolutional operations. By combining this with a
modified power law compression technique for enhanced perceptual quality, this
approach achieves noise suppression performance comparable to state-of-the-art
methods with significantly less computational requirements. Notably, our
algorithm exhibits 3 to 4 times less computational complexity and memory usage
than prior state-of-the-art approaches.
- Abstract(参考訳): 本稿では,資源制約されたデバイス上でのリアルタイム音声強調におけるディープニューラルネットワークの計算複雑性を低減するための革新的な手法を提案する。
提案手法は,畳み込み処理の計算負荷を低減するためにチャネルワイズ特徴の方向転換を用いた2段階処理フレームワークを用いる。
これと改良された電力法圧縮技術を組み合わせて知覚品質を向上させることにより、計算要求が大幅に少ない最先端の手法に匹敵するノイズ抑圧性能を実現する。
特に,我々のアルゴリズムは,従来の最先端手法の3倍から4倍の計算量とメモリ使用量を示す。
関連論文リスト
- Enhancing PAC Learning of Half spaces Through Robust Optimization Techniques [0.0]
PACは、一定の悪意のある雑音下でハーフスペースを学習し、トレーニングデータのごく一部が逆向きに破損する。
半宇宙学習における雑音耐性を考慮に入れた理論的枠組みを拡張した,新しい効率的なアルゴリズムを提案する。
本稿では,従来の最先端手法と比較して,悪質な雑音に対して優れた頑健性を示すアルゴリズムの性能を包括的に分析する。
論文 参考訳(メタデータ) (2024-10-21T23:08:17Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Reducing Computational Complexity of Neural Networks in Optical Channel
Equalization: From Concepts to Implementation [1.6987798749419218]
本稿では,従来のディジタルバックプロパゲーション(DBP)イコライザよりも実装が簡単で,性能も優れたNNベースのイコライザを設計できることを示す。
NNに基づく等化器は、完全電子色分散補償ブロックと同程度の複雑さを維持しつつ、優れた性能を達成することができる。
論文 参考訳(メタデータ) (2022-08-26T21:00:05Z) - On Effects of Compression with Hyperdimensional Computing in Distributed
Randomized Neural Networks [6.25118865553438]
ランダム化ニューラルネットワークと超次元計算に基づく分散分類モデルを提案する。
本研究では,従来の圧縮アルゴリズムや次元減少,量子化技術と比較し,より柔軟な圧縮手法を提案する。
論文 参考訳(メタデータ) (2021-06-17T22:02:40Z) - A Novel Fast 3D Single Image Super-Resolution Algorithm [8.922669577341225]
本稿では,3次元画像超解像(SR)問題を解く新しい計算効率の手法を提案する。
主な貢献は、関連するデシメーションと演算子を同時に扱う元の方法にある。
提案した3次元デシメーション演算子の分解技術は、Tikhonov正則化の簡単な実装を可能にする。
論文 参考訳(メタデータ) (2020-10-29T11:23:28Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - WrapNet: Neural Net Inference with Ultra-Low-Resolution Arithmetic [57.07483440807549]
ニューラルネットワークをアキュムレータの低分解能(8ビット)加算に適応させ,32ビットのアキュムレータに匹敵する分類精度を実現する手法を提案する。
ソフトウェアプラットフォームとハードウェアプラットフォームの両方において、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-26T23:18:38Z) - Noise-Sampling Cross Entropy Loss: Improving Disparity Regression Via
Cost Volume Aware Regularizer [38.86850327892113]
本稿では,ディープニューラルネットワークが生み出すコストを一様かつコヒーレントに調整するためのノイズサンプリングクロスエントロピー損失関数を提案する。
実験により、提案されたノイズサンプリングクロスエントロピー損失は、ニューラルネットワークがより情報的なコストボリュームを学ぶのに役立つだけでなく、ステレオマッチング性能の向上につながることが検証された。
論文 参考訳(メタデータ) (2020-05-18T15:29:55Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。