論文の概要: Nonlinear predictive models computation in ADPCM schemes
- arxiv url: http://arxiv.org/abs/2203.02020v1
- Date: Thu, 3 Mar 2022 21:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 16:20:48.869948
- Title: Nonlinear predictive models computation in ADPCM schemes
- Title(参考訳): ADPCMスキームにおける非線形予測モデル計算
- Authors: Marcos Faundez-Zanuy
- Abstract要約: 本稿では,SEGSNRの1.2dBまでの性能向上を図るための新しい手法を提案する。
フレーム間のSEGSNRのばらつきも最小限に抑えられ、新しいスキームは出力のより安定した品質を生み出す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently several papers have been published on nonlinear prediction applied
to speech coding. At ICASSP98 we presented a system based on an ADPCM scheme
with a nonlinear predictor based on a neural net. The most critical parameter
was the training procedure in order to achieve good generalization capability
and robustness against mismatch between training and testing conditions. In
this paper, we propose several new approaches that improve the performance of
the original system in up to 1.2dB of SEGSNR (using bayesian regularization).
The variance of the SEGSNR between frames is also minimized, so the new scheme
produces a more stable quality of the output.
- Abstract(参考訳): 近年,音声符号化に適用される非線形予測に関する論文がいくつか発表されている。
ICASSP98において、ニューラルネットワークに基づく非線形予測器を用いたADPCMスキームに基づくシステムを提案する。
最も重要なパラメータは、訓練条件と試験条件のミスマッチに対する優れた一般化能力と堅牢性を達成するための訓練手順であった。
本稿では,SEGSNRの1.2dB(ベイズ正規化)における元のシステムの性能を改善するための新しいアプローチを提案する。
フレーム間のSEGSNRのばらつきも最小限に抑えられ、新しいスキームは出力のより安定した品質を生み出す。
関連論文リスト
- Domain Generalization Guided by Gradient Signal to Noise Ratio of
Parameters [69.24377241408851]
ソースドメインへのオーバーフィッティングは、ディープニューラルネットワークの勾配に基づくトレーニングにおいて一般的な問題である。
本稿では,ネットワークパラメータの勾配-信号-雑音比(GSNR)を選択することを提案する。
論文 参考訳(メタデータ) (2023-10-11T10:21:34Z) - Bayesian Cramér-Rao Bound Estimation with Score-Based Models [3.4480437706804503]
ベイジアンクラム・ラオ境界(英語版)(英: Bayesian Cram'er-Rao bound, CRB)は、任意のベイジアン推定器の平均二乗誤差に対する下界を与える。
本研究は,スコアマッチングを用いたCRBのための新しいデータ駆動推定手法を提案する。
論文 参考訳(メタデータ) (2023-09-28T00:22:21Z) - Unmatched uncertainty mitigation through neural network supported model
predictive control [7.036452261968766]
学習ベースMPC(LBMPC)の基本最適化問題において,深層ニューラルネットワーク(DNN)をオラクルとして利用する。
我々は、ニューラルネットワークの最後のレイヤの重みをリアルタイムで更新するデュアル・タイムスケール適応機構を採用している。
その結果,提案手法はリアルタイムに実装可能であり,LBMPCの理論的保証を担っていることがわかった。
論文 参考訳(メタデータ) (2023-04-22T04:49:48Z) - SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models [58.78043959556283]
本研究は,Low-Rank Adaptation (LoRA)ファインチューニング手法を含む,異なる微調整手法によるモデルの挙動について検討する。
解析の結果、LoRAファインチューニングは様々なシナリオにおけるフルファインチューニングよりも、OODの一般化性能が大幅に向上していることが判明した。
論文 参考訳(メタデータ) (2022-10-10T16:07:24Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - On the adaptation of recurrent neural networks for system identification [2.5234156040689237]
本稿では,動的システムのリカレントニューラルネットワーク(RNN)モデルの高速かつ効率的な適応を可能にするトランスファー学習手法を提案する。
その後、システムダイナミクスが変化すると仮定され、摂動系における名目モデルの性能が不可避的に低下する。
ミスマッチに対処するため、新しい動的状態からの新鮮なデータに基づいてトレーニングされた付加的補正項でモデルを拡張する。
論文 参考訳(メタデータ) (2022-01-21T12:04:17Z) - Differentially private training of neural networks with Langevin
dynamics forcalibrated predictive uncertainty [58.730520380312676]
その結果,DP-SGD(差分偏差勾配勾配勾配勾配勾配)は,低校正・過信深層学習モデルが得られることがわかった。
これは、医療診断など、安全クリティカルな応用にとって深刻な問題である。
論文 参考訳(メタデータ) (2021-07-09T08:14:45Z) - A Distributed Optimisation Framework Combining Natural Gradient with
Hessian-Free for Discriminative Sequence Training [16.83036203524611]
本稿では、ニューラルネットワークトレーニングのための自然勾配およびヘッセンフリー(NGHF)最適化フレームワークを提案する。
これは、自然勾配(ng)法とヘッセンフリー(hf)や他の二次法からの局所曲率情報を組み合わせた線形共役勾配(cg)アルゴリズムに依存している。
さまざまな音響モデルタイプのマルチジャンル放送データセットで実験が報告されています。
論文 参考訳(メタデータ) (2021-03-12T22:18:34Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - A Sequential Framework Towards an Exact SDP Verification of Neural
Networks [14.191310794366075]
ニューラルネットワークのロバスト性を研究するために,凸最適化に基づくいくつかの手法が文献で提案されている。
堅牢な認証アプローチの課題は、大きな緩和ギャップがあることです。
本研究では,このギャップをゼロに縮めるための逐次プログラミングフレームワークを開発することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-10-16T19:45:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。