論文の概要: You Are What You Say: Exploiting Linguistic Content for VoicePrivacy Attacks
- arxiv url: http://arxiv.org/abs/2506.09521v1
- Date: Wed, 11 Jun 2025 08:46:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.776614
- Title: You Are What You Say: Exploiting Linguistic Content for VoicePrivacy Attacks
- Title(参考訳): ボイス・プリビティ・アタックのための言語コンテンツが爆発する
- Authors: Ünal Ege Gaznepoglu, Anna Leschanowsky, Ahmad Aloradi, Prachi Singh, Daniel Tenbrinck, Emanuël A. P. Habets, Nils Peters,
- Abstract要約: 攻撃者訓練および評価データセットにおける話者内言語内容の類似性の影響を評価する。
また,VoicePrivacy Attacker Challengeデータセットでは,平均誤り率(EER)が35%に達し,EERを2%以下に抑えることができた。
我々の研究は、VoicePrivacyデータセットを再設計し、公正で偏見のない評価を確実にし、プライバシー評価のグローバルEERへの依存に挑戦することを提案している。
- 参考スコア(独自算出の注目度): 9.235490630909323
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Speaker anonymization systems hide the identity of speakers while preserving other information such as linguistic content and emotions. To evaluate their privacy benefits, attacks in the form of automatic speaker verification (ASV) systems are employed. In this study, we assess the impact of intra-speaker linguistic content similarity in the attacker training and evaluation datasets, by adapting BERT, a language model, as an ASV system. On the VoicePrivacy Attacker Challenge datasets, our method achieves a mean equal error rate (EER) of 35%, with certain speakers attaining EERs as low as 2%, based solely on the textual content of their utterances. Our explainability study reveals that the system decisions are linked to semantically similar keywords within utterances, stemming from how LibriSpeech is curated. Our study suggests reworking the VoicePrivacy datasets to ensure a fair and unbiased evaluation and challenge the reliance on global EER for privacy evaluations.
- Abstract(参考訳): 話者匿名化システムは、言語内容や感情などの他の情報を保持しながら、話者のアイデンティティを隠蔽する。
プライバシの利点を評価するため、自動話者検証(ASV)システムによる攻撃が採用されている。
本研究では,攻撃者訓練および評価データセットにおける話者内言語内容の類似性の影響を,言語モデルであるBERTをASVシステムとして適用することにより評価する。
また,VoicePrivacy Attacker Challengeデータセットでは,発話のテキスト内容のみに基づいて,EERを2%以下に抑えた平均誤り率(EER)を35%とした。
我々の説明可能性調査は、システム決定が、LibriSpeechのキュレート方法に起因して、発話内の意味論的に類似したキーワードと結びついていることを明らかにする。
我々の研究は、VoicePrivacyデータセットを再設計し、公正で偏見のない評価を確実にし、プライバシー評価のグローバルEERへの依存に挑戦することを提案している。
関連論文リスト
- Incorporating Linguistic Constraints from External Knowledge Source for Audio-Visual Target Speech Extraction [87.49303116989708]
AV-TSEの補助的知識源として,事前学習言語モデル (PSLM) と事前学習言語モデル (PLM) の可能性を検討する。
本研究では, AV-TSE モデルに対するPSLM や PLM からの言語制約を追加の監視信号として活用することを提案する。
推論中に余分な計算コストがなければ、提案手法は音声品質と知能性を一貫して改善する。
論文 参考訳(メタデータ) (2025-06-11T14:36:26Z) - Probing the Feasibility of Multilingual Speaker Anonymization [28.445925953669825]
最先端の匿名化システムを9言語に拡張する。
プライバシー攻撃や音声劣化に対する匿名化音声の堅牢性をテストする実験は、全ての言語でこのシステムの全体的な成功を示している。
論文 参考訳(メタデータ) (2024-07-03T09:12:53Z) - An Initial Investigation of Language Adaptation for TTS Systems under Low-resource Scenarios [76.11409260727459]
本稿では,最近のSSLベースの多言語TSシステムであるZMM-TTSの言語適応性について検討する。
本研究では,事前学習言語と対象言語との音声学的な類似性が,対象言語の適応性能に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-06-13T08:16:52Z) - Evaluation of Speaker Anonymization on Emotional Speech [9.223908421919733]
音声データには、話者のアイデンティティや感情状態など、さまざまな個人情報が含まれている。
最近の研究は、音声のプライバシーを守るという話題に対処している。
VoicePrivacy 2020 Challenge(VPC)は、話者の匿名化に関するものだ。
論文 参考訳(メタデータ) (2023-04-15T20:50:29Z) - Why does Self-Supervised Learning for Speech Recognition Benefit Speaker
Recognition? [86.53044183309824]
話者関連課題における自己教師型学習の成功につながる要因について検討する。
Voxceleb-1データセットにおける実験結果から,SVタスクに対するSSLの利点は,マスクによる予測損失,データスケール,モデルサイズの組み合わせによるものであることが示唆された。
論文 参考訳(メタデータ) (2022-04-27T08:35:57Z) - The VoicePrivacy 2022 Challenge Evaluation Plan [46.807999940446294]
トレーニング、開発、評価のデータセットが提供される。
参加者は開発した匿名化システムを適用する。
結果はInterSPEECH 2022と共同で開催されるワークショップで発表される。
論文 参考訳(メタデータ) (2022-03-23T15:05:18Z) - Differentially Private Speaker Anonymization [44.90119821614047]
実世界の発話を共有することが、音声ベースのサービスのトレーニングと展開の鍵となる。
話者匿名化は、言語的および韻律的属性をそのまま残しながら、発話から話者情報を除去することを目的としている。
言語的属性と韻律的属性は依然として話者情報を含んでいる。
論文 参考訳(メタデータ) (2022-02-23T23:20:30Z) - UniSpeech: Unified Speech Representation Learning with Labeled and
Unlabeled Data [54.733889961024445]
ラベル付きデータとラベル付きデータの両方を用いて音声表現を学習するためのUniSpeechという統合事前学習手法を提案する。
公立CommonVoiceコーパス上での言語間表現学習におけるUniSpeechの有効性を評価する。
論文 参考訳(メタデータ) (2021-01-19T12:53:43Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。