論文の概要: Neural Architectures Learning Fourier Transforms, Signal Processing and
Much More....
- arxiv url: http://arxiv.org/abs/2308.10388v1
- Date: Sun, 20 Aug 2023 23:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 15:36:48.438309
- Title: Neural Architectures Learning Fourier Transforms, Signal Processing and
Much More....
- Title(参考訳): ニューラルネットワークはフーリエ変換、信号処理などを学ぶ...
- Authors: Prateek Verma
- Abstract要約: 音声信号処理アプリケーションにおいて,スクラッチからカーネルを学習する方法を示す。
ニューラルネットワークは正弦波のカーネル形状を学習するだけでなく、あらゆる種類の素晴らしい信号処理特性を発見する。
- 参考スコア(独自算出の注目度): 1.2328446298523066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report will explore and answer fundamental questions about taking
Fourier Transforms and tying it with recent advances in AI and neural
architecture. One interpretation of the Fourier Transform is decomposing a
signal into its constituent components by projecting them onto complex
exponentials. Variants exist, such as discrete cosine transform that does not
operate on the complex domain and projects an input signal to only cosine
functions oscillating at different frequencies. However, this is a fundamental
limitation, and it needs to be more suboptimal. The first one is that all
kernels are sinusoidal: What if we could have some kernels adapted or learned
according to the problem? What if we can use neural architectures for this? We
show how one can learn these kernels from scratch for audio signal processing
applications. We find that the neural architecture not only learns sinusoidal
kernel shapes but discovers all kinds of incredible signal-processing
properties. E.g., windowing functions, onset detectors, high pass filters, low
pass filters, modulations, etc. Further, upon analysis of the filters, we find
that the neural architecture has a comb filter-like structure on top of the
learned kernels. Comb filters that allow harmonic frequencies to pass through
are one of the core building blocks/types of filters similar to high-pass,
low-pass, and band-pass filters of various traditional signal processing
algorithms. Further, we can also use the convolution operation with a signal to
be learned from scratch, and we will explore papers in the literature that uses
this with that robust Transformer architectures. Further, we would also explore
making the learned kernel's content adaptive, i.e., learning different kernels
for different inputs.
- Abstract(参考訳): このレポートでは、フーリエ変換を取り入れ、AIとニューラルアーキテクチャの最近の進歩と結び付けることに関する基本的な質問に答える。
フーリエ変換の解釈の一つは、信号を構成成分に分解して複素指数に射影させることである。
複素領域上では動作せず、異なる周波数で振動するコサイン関数のみに入力信号を投影する離散コサイン変換のような変種が存在する。
しかし、これは基本的な制限であり、より最適である必要がある。
ひとつは、すべてのカーネルが正弦波(sinusoidal)であることだ。
このためにニューラルアーキテクチャが使えるとしたら?
音声信号処理アプリケーションにおいて,これらのカーネルをスクラッチから学習する方法を示す。
ニューラルネットワークは正弦波のカーネル形状を学習するだけでなく、あらゆる種類の素晴らしい信号処理特性を発見する。
例えば、ウィンドウ機能、オンセット検出器、ハイパスフィルタ、ローパスフィルタ、変調などである。
さらに, フィルタの解析により, ニューラルネットワークは学習したカーネル上に, コムフィルタのような構造を持つことがわかった。
ハーモニック周波数の通過を可能にするコムフィルタは、様々な従来の信号処理アルゴリズムのハイパス、ローパス、帯域通過フィルタに似たフィルタのコアビルディングブロック/タイプの1つである。
さらに,信号の畳み込み操作をスクラッチから学習することも可能であり,この頑健なトランスフォーマーアーキテクチャを用いてこれを用いた文献を考察する。
さらに、学習したカーネルのコンテンツ、すなわち異なる入力のために異なるカーネルを学習させることについても検討する。
関連論文リスト
- Towards Signal Processing In Large Language Models [46.76681147411957]
本稿では,Large Language Model (LLM) 内で信号処理を適用するという考え方を紹介する。
古典的なフーリエ変換とフーリエ変換のような学習可能な時間周波数表現の並列性を描く。
GPTのようなアーキテクチャでは、より高速な収束を実現し、性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-10T13:51:52Z) - As large as it gets: Learning infinitely large Filters via Neural Implicit Functions in the Fourier Domain [22.512062422338914]
画像分類のためのニューラルネットワークの最近の研究は、空間的文脈を増大させる傾向が強い。
本稿では,畳み込みニューラルネットワークの有効フィルタサイズを研究するためのモジュールを提案する。
提案するネットワークは非常に大きな畳み込みカーネルを学習できるが、学習されたフィルタは十分に局所化されており、実際は比較的小さい。
論文 参考訳(メタデータ) (2023-07-19T14:21:11Z) - Content Adaptive Front End For Audio Signal Processing [2.8935588665357077]
音声信号処理のための学習可能なコンテンツ適応フロントエンドを提案する。
我々は、各音声信号を畳み込みフィルタのバンクに通し、それぞれが固定次元ベクトルを与える。
論文 参考訳(メタデータ) (2023-03-18T16:09:10Z) - Neural Fourier Filter Bank [18.52741992605852]
本稿では, 効率的かつ高精度な再構築手法を提案する。
ウェーブレットにインスパイアされた我々は、信号が空間的にも周波数的にも分解されるニューラルネットワークを学習する。
論文 参考訳(メタデータ) (2022-12-04T03:45:08Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - DeepA: A Deep Neural Analyzer For Speech And Singing Vocoding [71.73405116189531]
本稿では,従来のボコーダで定義されている音声をエミュレートする入力音声から,F0と音節/音節/音節のエンコーディングを抽出するニューラルボコーダを提案する。
ディープ・ニューラル・アナライザは学習可能であるため、信号の再構成と操作がより正確であり、音声から歌への一般化が期待できる。
論文 参考訳(メタデータ) (2021-10-13T01:39:57Z) - Large Scale Audio Understanding without Transformers/ Convolutions/
BERTs/ Mixers/ Attention/ RNNs or .... [4.594159253008448]
本稿では,従来の最先端のニューラルアーキテクチャを使わずに大規模音声理解を実現する方法を提案する。
私たちのアプローチには、コンボリューション、再発、注意、トランスフォーマー、BERTのような他のアプローチはありません。
SimCLRのアプローチに似た分類ヘッド(フィードフォワード層)は、学習された表現に基づいて訓練される。
論文 参考訳(メタデータ) (2021-10-07T05:00:26Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Neural Granular Sound Synthesis [53.828476137089325]
グラニュラー音声合成は、小さな波形ウィンドウの並べ替え配列に基づく一般的な音声生成技術である。
生成ニューラルネットワークは、その欠点の大部分を緩和しつつ、粒状合成を実現することができることを示す。
論文 参考訳(メタデータ) (2020-08-04T08:08:00Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。