論文の概要: A differentiable short-time Fourier transform with respect to the window
length
- arxiv url: http://arxiv.org/abs/2208.10886v2
- Date: Thu, 25 Aug 2022 08:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 11:21:41.109485
- Title: A differentiable short-time Fourier transform with respect to the window
length
- Title(参考訳): ウィンドウ長に対する微分可能な短時間フーリエ変換
- Authors: Maxime Leiber, Axel Barrau, Yosra Marnissi, Dany Abboud
- Abstract要約: ニューラルネットワークにおけるスペクトログラムの使用について,ウィンドウ長を降下勾配によって最適化可能な連続パラメータにすることで再検討する。
この貢献は主に理論的に理論的だが、修正されたSTFTを既存のニューラルネットワークに接続するのは簡単である。
- 参考スコア(独自算出の注目度): 4.0527583944137255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we revisit the use of spectrograms in neural networks, by
making the window length a continuous parameter optimizable by gradient descent
instead of an empirically tuned integer-valued hyperparameter. The contribution
is mostly theoretical at this point, but plugging the modified STFT into any
existing neural network is straightforward. We first define a differentiable
version of the STFT in the case where local bins centers are fixed and
independent of the window length parameter. We then discuss the more difficult
case where the window length affects the position and number of bins. We
illustrate the benefits of this new tool on an estimation and a classification
problems, showing it can be of interest not only to neural networks but to any
STFT-based signal processing algorithm.
- Abstract(参考訳): 本稿では,経験的に調整された整数値のハイパーパラメータではなく,勾配降下によってウィンドウ長を最適化可能な連続パラメータにすることで,ニューラルネットワークにおけるスペクトログラムの使用を再検討する。
この貢献は主に理論的に理論的だが、修正されたSTFTを既存のニューラルネットワークに接続するのは簡単である。
まず、局所的なビン中心が固定され、ウィンドウ長パラメータから独立している場合、STFTの微分可能バージョンを定義する。
次に、ウィンドウ長がビンの位置と数に影響を与えるより難しいケースについて議論する。
本稿では,このツールのニューラルネットワークだけでなく,sftに基づく信号処理アルゴリズムにも興味があることを示す。
関連論文リスト
- Neural Fields with Thermal Activations for Arbitrary-Scale Super-Resolution [56.089473862929886]
本稿では,適応型ガウスPSFを用いて点を問合せできる新しい設計手法を提案する。
理論的に保証されたアンチエイリアスにより、任意のスケールの単一画像の超解像のための新しい手法が確立される。
論文 参考訳(メタデータ) (2023-11-29T14:01:28Z) - Differentiable short-time Fourier transform with respect to the hop
length [4.664495510551647]
本稿では,ホップ長やフレーム時間位置の勾配に基づく最適化が可能な,短時間フーリエ変換(STFT)の微分可能バージョンを提案する。
提案手法は、ホップ長の連続的な性質により、より微調整された最適化が可能となるため、フレームの時間的位置決めの制御を改善する。
論文 参考訳(メタデータ) (2023-07-26T07:04:09Z) - Differentiable adaptive short-time Fourier transform with respect to the
window length [4.664495510551647]
本稿では,短時間フーリエ変換(STFT)のフレーム単位と周波数単位のウィンドウ長に対する勾配に基づく最適化手法を提案する。
結果として得られる微分可能適応STFTは、過渡成分と定常成分の両方に同じ時間周波数表現で適応できるなど、可換性を持っているが、勾配降下により容易に最適化できる。
論文 参考訳(メタデータ) (2023-07-26T06:55:42Z) - Efficient Parametric Approximations of Neural Network Function Space
Distance [6.117371161379209]
モデルパラメータとトレーニングデータの重要な特性をコンパクトに要約して、データセット全体を保存または/または反復することなく後で使用できるようにすることが、しばしば有用である。
我々は,FSD(Function Space Distance)をトレーニングセット上で推定することを検討する。
本稿では、線形化活性化TRick (LAFTR) を提案し、ReLUニューラルネットワークに対するFSDの効率的な近似を導出する。
論文 参考訳(メタデータ) (2023-02-07T15:09:23Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Rate Region for Indirect Multiterminal Source Coding in Federated
Learning [49.574683687858126]
多数のエッジデバイスは、ローカルモデルの各ラウンドでアップデートをエッジに送信します。
既存の作品は、異なるエッジによって送信される情報の焦点を活用しない。
本稿では,間接多端音源符号化 fl のレート領域について検討する。
論文 参考訳(メタデータ) (2021-01-21T16:17:39Z) - Optimizing Short-Time Fourier Transform Parameters via Gradient Descent [24.80575785857326]
任意のコスト関数に対してSTFTパラメータの勾配を求める方法を示す。
我々は、入力全体を通して一定であるパラメータ値に対して、また、これらのパラメータが様々な信号特性に対応するために、時間とともに動的に変化しなければならない場合にも、そうする。
論文 参考訳(メタデータ) (2020-10-28T15:49:56Z) - Efficient Long-Range Convolutions for Point Clouds [16.433511770049336]
我々は、ポイントクラウドの長距離情報を直接組み込む新しいニューラルネットワーク層を提案する。
LRC層は局所的な畳み込みと組み合わせることで特に強力なツールである。
我々は,LRC層と短距離畳み込み層を組み合わせたニューラルネットワークアーキテクチャを導入することで,この枠組みを実証する。
論文 参考訳(メタデータ) (2020-10-11T17:42:54Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - On the infinite width limit of neural networks with a standard
parameterization [52.07828272324366]
幅が無限大になるにつれて、これらの特性を全て保存する標準パラメータ化の補間の改善を提案する。
実験により,結果のカーネルはNTKパラメータ化の結果とよく似た精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-01-21T01:02:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。