論文の概要: Differentiable short-time Fourier transform with respect to the hop
length
- arxiv url: http://arxiv.org/abs/2308.02421v1
- Date: Wed, 26 Jul 2023 07:04:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 01:39:01.181341
- Title: Differentiable short-time Fourier transform with respect to the hop
length
- Title(参考訳): ホップ長に対する微分可能な短時間フーリエ変換
- Authors: Maxime Leiber, Yosra Marnissi, Axel Barrau, Mohammed El Badaoui
- Abstract要約: 本稿では,ホップ長やフレーム時間位置の勾配に基づく最適化が可能な,短時間フーリエ変換(STFT)の微分可能バージョンを提案する。
提案手法は、ホップ長の連続的な性質により、より微調整された最適化が可能となるため、フレームの時間的位置決めの制御を改善する。
- 参考スコア(独自算出の注目度): 4.664495510551647
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a differentiable version of the short-time Fourier
transform (STFT) that allows for gradient-based optimization of the hop length
or the frame temporal position by making these parameters continuous. Our
approach provides improved control over the temporal positioning of frames, as
the continuous nature of the hop length allows for a more finely-tuned
optimization. Furthermore, our contribution enables the use of optimization
methods such as gradient descent, which are more computationally efficient than
conventional discrete optimization methods. Our differentiable STFT can also be
easily integrated into existing algorithms and neural networks. We present a
simulated illustration to demonstrate the efficacy of our approach and to
garner interest from the research community.
- Abstract(参考訳): 本稿では,これらのパラメータを連続させることにより,ホップ長やフレーム時間位置の勾配に基づく最適化を可能にする,短時間フーリエ変換(STFT)の微分可能バージョンを提案する。
ホップ長の連続的な性質により、より微調整された最適化が可能となり、フレームの時間的位置決めの制御を改善した。
さらに,従来の離散最適化手法よりも計算効率がよい勾配降下法などの最適化手法の利用も可能である。
私たちの差別化可能なSTFTは、既存のアルゴリズムやニューラルネットワークに簡単に統合することができます。
本研究は,提案手法の有効性を実証し,研究コミュニティの関心を惹きつけるためのシミュレーションイラストを提示する。
関連論文リスト
- Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - State-Free Inference of State-Space Models: The Transfer Function Approach [132.83348321603205]
状態のない推論では、状態サイズが大きくなると大きなメモリや計算コストは発生しない。
提案した周波数領域転送関数のパラメトリゼーション特性を用いてこれを実現する。
長い畳み込みハイエナベースライン上での言語モデリングにおける難易度の改善を報告した。
論文 参考訳(メタデータ) (2024-05-10T00:06:02Z) - Tensor-Valued Time and Inference Path Optimization in Differential Equation-Based Generative Modeling [16.874769609089764]
この研究は、従来のスカラー値の時間を複数の次元に拡張するテンソル値の時間を導入している。
また,多次元推論軌道を適応的に決定する新しい経路最適化問題を提案する。
論文 参考訳(メタデータ) (2024-04-22T13:20:01Z) - Differentiable adaptive short-time Fourier transform with respect to the
window length [4.664495510551647]
本稿では,短時間フーリエ変換(STFT)のフレーム単位と周波数単位のウィンドウ長に対する勾配に基づく最適化手法を提案する。
結果として得られる微分可能適応STFTは、過渡成分と定常成分の両方に同じ時間周波数表現で適応できるなど、可換性を持っているが、勾配降下により容易に最適化できる。
論文 参考訳(メタデータ) (2023-07-26T06:55:42Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - Improving Convergence and Generalization Using Parameter Symmetries [34.863101622189944]
異なる曲率を持つミニマへのテレポーティングにより一般化が向上し,最小曲率と一般化能力の関連性が示唆された。
本結果は, テレポーテーションの汎用性を示し, 最適化に対称性を組み込むことの可能性を示した。
論文 参考訳(メタデータ) (2023-05-22T18:35:42Z) - Non-Convex Optimization with Certificates and Fast Rates Through Kernel
Sums of Squares [68.8204255655161]
非最適化近似問題を考える。
本稿では,最優先計算を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-11T09:37:04Z) - Delayed Projection Techniques for Linearly Constrained Problems:
Convergence Rates, Acceleration, and Applications [24.763531954075656]
線形制約問題(LCP)に対する新しいプロジェクションベースアルゴリズムのクラスについて検討する。
そこで本研究では,射影を一時的に呼び出す遅延射影手法を提案し,射影周波数を下げ,射影効率を向上させる。
強凸, 一般凸のどちらの場合においても, 投射効率を向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-01-05T13:42:41Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Optimizing Short-Time Fourier Transform Parameters via Gradient Descent [24.80575785857326]
任意のコスト関数に対してSTFTパラメータの勾配を求める方法を示す。
我々は、入力全体を通して一定であるパラメータ値に対して、また、これらのパラメータが様々な信号特性に対応するために、時間とともに動的に変化しなければならない場合にも、そうする。
論文 参考訳(メタデータ) (2020-10-28T15:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。