論文の概要: Evaluation of Speaker Anonymization on Emotional Speech
- arxiv url: http://arxiv.org/abs/2305.01759v1
- Date: Sat, 15 Apr 2023 20:50:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 15:54:19.172289
- Title: Evaluation of Speaker Anonymization on Emotional Speech
- Title(参考訳): 感情音声における話者匿名化の評価
- Authors: Hubert Nourtel, Pierre Champion, Denis Jouvet, Anthony Larcher, Marie
Tahon
- Abstract要約: 音声データには、話者のアイデンティティや感情状態など、さまざまな個人情報が含まれている。
最近の研究は、音声のプライバシーを守るという話題に対処している。
VoicePrivacy 2020 Challenge(VPC)は、話者の匿名化に関するものだ。
- 参考スコア(独自算出の注目度): 9.223908421919733
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Speech data carries a range of personal information, such as the speaker's
identity and emotional state. These attributes can be used for malicious
purposes. With the development of virtual assistants, a new generation of
privacy threats has emerged. Current studies have addressed the topic of
preserving speech privacy. One of them, the VoicePrivacy initiative aims to
promote the development of privacy preservation tools for speech technology.
The task selected for the VoicePrivacy 2020 Challenge (VPC) is about speaker
anonymization. The goal is to hide the source speaker's identity while
preserving the linguistic information. The baseline of the VPC makes use of a
voice conversion. This paper studies the impact of the speaker anonymization
baseline system of the VPC on emotional information present in speech
utterances. Evaluation is performed following the VPC rules regarding the
attackers' knowledge about the anonymization system. Our results show that the
VPC baseline system does not suppress speakers' emotions against informed
attackers. When comparing anonymized speech to original speech, the emotion
recognition performance is degraded by 15\% relative to IEMOCAP data, similar
to the degradation observed for automatic speech recognition used to evaluate
the preservation of the linguistic information.
- Abstract(参考訳): 音声データには、話者のアイデンティティや感情状態など、さまざまな個人情報が含まれている。
これらの属性は悪意のある目的で使用できる。
バーチャルアシスタントの開発により、新しい世代のプライバシーの脅威が現れた。
最近の研究は、音声のプライバシーを守るという話題に対処している。
その1つとして、VoicePrivacyイニシアチブは、音声技術のプライバシー保護ツールの開発を促進することを目的としている。
VoicePrivacy 2020 Challenge (VPC)で選ばれたタスクは、話者の匿名化である。
目標は、言語情報を保存しながら、ソース話者のアイデンティティを隠すことである。
VPCのベースラインは音声変換を利用する。
本稿では,VPCの話者匿名化ベースラインが発話中の感情情報に与える影響について検討する。
匿名化システムに関する攻撃者の知識に関するVPCルールに従って評価を行う。
以上の結果から,VPCベースラインシステムは,攻撃者に対する話者の感情を抑えるものではないことがわかった。
匿名化音声と原音声を比較する場合、言語情報の保存を評価するために使用される自動音声認識で観測される劣化と同様のiemocapデータに対して、感情認識性能を15\%低下させる。
関連論文リスト
- Asynchronous Voice Anonymization Using Adversarial Perturbation On Speaker Embedding [46.25816642820348]
我々は、人間の知覚を維持しながら、音声認識に対して音声属性を変更することに重点を置いている。
話者ゆがみ機構を組み込んだ音声生成フレームワークを用いて匿名化音声を生成する。
LibriSpeechデータセットで行った実験では、話者の属性は、その人の知覚が処理された発話の60.71%で保存されていることが判明した。
論文 参考訳(メタデータ) (2024-06-12T13:33:24Z) - Anonymizing Speech: Evaluating and Designing Speaker Anonymization
Techniques [1.2691047660244337]
音声ユーザインタフェースの利用が増加し、音声データの収集と保存が急増した。
本論文は、音声の匿名化と匿名化の程度を評価するためのソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-05T16:14:17Z) - Anonymizing Speech with Generative Adversarial Networks to Preserve
Speaker Privacy [22.84840887071428]
話者匿名化は、音声録音における音声を変化させることで話者の同一性を隠蔽することを目的としている。
これは一般的に、個人の保護とダウンストリームアプリケーションにおけるデータのユーザビリティとの間の、プライバシーとユーティリティのトレードオフが伴う。
本稿では,ワッサースタイン距離をコスト関数として生成した逆数ネットワークを用いて話者埋め込みを生成することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-10-13T13:12:42Z) - Self-Supervised Speech Representations Preserve Speech Characteristics
while Anonymizing Voices [15.136348385992047]
我々は、自己教師付き音声表現を用いて、複数の音声変換モデルを訓練する。
変換音声は、元の音声の1%以内に低い単語誤り率を保持する。
調音・韻律・発声・音韻に関連する音声特徴を匿名音声から抽出できることを示す。
論文 参考訳(メタデータ) (2022-04-04T17:48:01Z) - Differentially Private Speaker Anonymization [44.90119821614047]
実世界の発話を共有することが、音声ベースのサービスのトレーニングと展開の鍵となる。
話者匿名化は、言語的および韻律的属性をそのまま残しながら、発話から話者情報を除去することを目的としている。
言語的属性と韻律的属性は依然として話者情報を含んでいる。
論文 参考訳(メタデータ) (2022-02-23T23:20:30Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z) - High Fidelity Speech Regeneration with Application to Speech Enhancement [96.34618212590301]
本稿では,24khz音声をリアルタイムに生成できる音声のwav-to-wav生成モデルを提案する。
音声変換法に着想を得て,音源の同一性を保ちながら音声特性を増強する訓練を行った。
論文 参考訳(メタデータ) (2021-01-31T10:54:27Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。