論文の概要: Empirical Results for Adjusting Truncated Backpropagation Through Time while Training Neural Audio Effects
- arxiv url: http://arxiv.org/abs/2512.07393v1
- Date: Mon, 08 Dec 2025 10:26:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.837906
- Title: Empirical Results for Adjusting Truncated Backpropagation Through Time while Training Neural Audio Effects
- Title(参考訳): ニューラルオーディオ効果の訓練中における時間的逆伝播の調整に関する実証的結果
- Authors: Yann Bourdin, Pierrick Legrand, Fanny Roche,
- Abstract要約: 本稿では、デジタルオーディオ効果モデリングにおけるニューラルネットワークのトレーニングのためのTBPTT(Trncated Backproagation Through Time)の最適化について検討する。
- 参考スコア(独自算出の注目度): 0.6688641196358245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the optimization of Truncated Backpropagation Through Time (TBPTT) for training neural networks in digital audio effect modeling, with a focus on dynamic range compression. The study evaluates key TBPTT hyperparameters -- sequence number, batch size, and sequence length -- and their influence on model performance. Using a convolutional-recurrent architecture, we conduct extensive experiments across datasets with and without conditionning by user controls. Results demonstrate that carefully tuning these parameters enhances model accuracy and training stability, while also reducing computational demands. Objective evaluations confirm improved performance with optimized settings, while subjective listening tests indicate that the revised TBPTT configuration maintains high perceptual quality.
- Abstract(参考訳): 本稿では,動的範囲圧縮に着目したディジタルオーディオエフェクトモデリングにおいて,ニューラルネットワークをトレーニングするためのTBPTT(Trncated Backproagation Through Time)の最適化について検討する。
本研究は, キーTBPTTハイパーパラメーター(シーケンス数, バッチサイズ, シーケンス長)と, モデル性能への影響について検討した。
畳み込み型リカレントアーキテクチャを用いて、ユーザ制御による条件付けなしでデータセットをまたいだ広範な実験を行う。
その結果、これらのパラメータを慎重に調整することでモデルの精度と訓練安定性が向上し、計算要求も減少することを示した。
主観的聴取テストでは,改良されたTBPTT構成が高い知覚品質を維持していることが示された。
関連論文リスト
- Layer-Aware Influence for Online Data Valuation Estimation [32.294500546369136]
データ中心学習は、パフォーマンスを高めるために高品質なトレーニングサンプルのキュレーションを強調する。
中心的な問題は、トレーニングサンプルの影響を効率的に見積もることである。
我々は、損失から出力への勾配のみを必要とする層認識型オンライン推定器を開発した。
論文 参考訳(メタデータ) (2025-10-14T15:34:22Z) - Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - Training Noise Token Pruning [2.3267858167388775]
視覚変換器のためのトレーニングノイズトケイング(TNT)について述べる。
本手法は離散トークン投下条件を連続付加雑音に緩和する。
我々は、レーティング・ディストーションの文献と理論的に関係し、ImageNetデータセット上で実証的な評価を行う。
論文 参考訳(メタデータ) (2024-11-27T07:04:00Z) - Towards Robust Transcription: Exploring Noise Injection Strategies for Training Data Augmentation [55.752737615873464]
本研究では,SNR(Signal-to-Noise Ratio)レベルにおける白色雑音の影響について検討した。
この研究は、様々な音環境における一貫した性能を維持する転写モデルの開発に向けた予備的な研究として、貴重な洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2024-10-18T02:31:36Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - On the Predictive Accuracy of Neural Temporal Point Process Models for
Continuous-time Event Data [3.13468877208035]
時間的ポイントプロセス(TPP)は、非同期イベントシーケンスを連続的にモデル化するための標準的な数学的フレームワークとして機能する。
ニューラルネットワークのパラメトリゼーションを活用し、より柔軟で効率的なモデリングを提供するNeural TPPを提案する。
本研究では,最先端のニューラルTPPモデルの予測精度を系統的に評価する。
論文 参考訳(メタデータ) (2023-06-29T16:14:43Z) - Online learning techniques for prediction of temporal tabular datasets
with regime changes [0.0]
時間パネルデータセットの予測をランキングするモジュール型機械学習パイプラインを提案する。
パイプラインのモジュラリティにより、GBDT(Gradient Boosting Decision Tree)やニューラルネットワークなど、さまざまなモデルの使用が可能になる。
モデルの再トレーニングを必要としないオンライン学習技術は、予測後の結果を高めるために使用することができる。
論文 参考訳(メタデータ) (2022-12-30T17:19:00Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。