論文の概要: Bayesian x-vector: Bayesian Neural Network based x-vector System for
Speaker Verification
- arxiv url: http://arxiv.org/abs/2004.04014v1
- Date: Wed, 8 Apr 2020 14:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:48:48.141855
- Title: Bayesian x-vector: Bayesian Neural Network based x-vector System for
Speaker Verification
- Title(参考訳): ベイジアンxベクトル:ベイジアンニューラルネットワークを用いた話者検証用xベクトルシステム
- Authors: Xu Li, Jinghua Zhong, Jianwei Yu, Shoukang Hu, Xixin Wu, Xunying Liu,
Helen Meng
- Abstract要約: 我々はディープニューラルネットワーク(DNN)xベクトル話者検証システムにベイズニューラルネットワーク(BNN)を組み込む。
BNNによって提供される重みの不確実性モデリングにより、システムは評価データにより良い一般化を期待できる。
その結果、BNNの相対的なEERの2.66%と2.32%の減少により、短文と短文のドメイン評価が可能であることが判明した。
- 参考スコア(独自算出の注目度): 71.45033077934723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speaker verification systems usually suffer from the mismatch problem between
training and evaluation data, such as speaker population mismatch, the channel
and environment variations. In order to address this issue, it requires the
system to have good generalization ability on unseen data. In this work, we
incorporate Bayesian neural networks (BNNs) into the deep neural network (DNN)
x-vector speaker verification system to improve the system's generalization
ability. With the weight uncertainty modeling provided by BNNs, we expect the
system could generalize better on the evaluation data and make verification
decisions more accurately. Our experiment results indicate that the DNN
x-vector system could benefit from BNNs especially when the mismatch problem is
severe for evaluations using out-of-domain data. Specifically, results show
that the system could benefit from BNNs by a relative EER decrease of 2.66% and
2.32% respectively for short- and long-utterance in-domain evaluations.
Additionally, the fusion of DNN x-vector and Bayesian x-vector systems could
achieve further improvement. Moreover, experiments conducted by out-of-domain
evaluations, e.g. models trained on Voxceleb1 while evaluated on NIST SRE10
core test, suggest that BNNs could bring a larger relative EER decrease of
around 4.69%.
- Abstract(参考訳): 話者検証システムは、通常、訓練と評価データのミスマッチ問題、例えば話者集団のミスマッチ、チャネルと環境の変化に悩まされる。
この問題に対処するためには、システムは見えないデータに対して優れた一般化能力を持つ必要がある。
本研究では,ベイズニューラルネットワーク(BNN)を深部ニューラルネットワーク(DNN)xベクトル話者検証システムに統合し,システムの一般化能力を向上させる。
bnnsが提供する重み不確実性モデリングにより,評価データの一般化と検証判断の精度向上が期待できる。
DNN x-vector システムは,ドメイン外データを用いた評価においてミスマッチの問題が重大である場合,特に BNN の恩恵を受ける可能性が示唆された。
具体的には、比較的EERが2.66%と2.32%減少することでBNNの利点を享受できることを示した。
さらに、DNN x-vector とベイズ x-vector の融合により、さらなる改善が期待できる。
さらに、NIST SRE10コアテストで評価しながら、Voxceleb1でトレーニングされたモデルなどドメイン外の評価によって実施された実験は、BNNがより大きい相対的EERを約4.69%減少させることを示唆している。
関連論文リスト
- Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Searching Similarity Measure for Binarized Neural Networks [14.847148292246374]
バイナリニューラルネットワーク(BNN)は、リソース制限されたデバイスにデプロイされる有望なモデルである。
BNNは難解な精度の劣化に悩まされ、様々な領域で適用が制限される。
遺伝的アルゴリズムに基づくBNN調整類似度尺度の自動探索手法を提案する。
論文 参考訳(メタデータ) (2022-06-05T06:53:53Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - pseudo-Bayesian Neural Networks for detecting Out of Distribution Inputs [12.429095025814345]
重みよりも分布を学習する代わりに、推定時に点推定と摂動重みを用いる擬似BNNを提案する。
全体として、この組み合わせは、推論時にOODサンプルを検出するという原則的な手法をもたらす。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Prior choice affects ability of Bayesian neural networks to identify
unknowns [0.0]
我々は、事前の選択がモデルが正しいクラスにデータを確実に割り当てる能力に重大な影響を与えることを示す。
また,BNNの性能向上のための代替オプションについても検討した。
論文 参考訳(メタデータ) (2020-05-11T10:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。