論文の概要: Improving the Speaker Anonymization Evaluation's Robustness to Target Speakers with Adversarial Learning
- arxiv url: http://arxiv.org/abs/2508.09803v1
- Date: Wed, 13 Aug 2025 13:38:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.904737
- Title: Improving the Speaker Anonymization Evaluation's Robustness to Target Speakers with Adversarial Learning
- Title(参考訳): 話者の匿名化評価の改善と対向学習による話者のロバスト性
- Authors: Carlos Franzreb, Arnab Das, Tim Polzehl, Sebastian Möller,
- Abstract要約: 評価においてターゲット話者情報の影響を計測するターゲット分類器を提案する。
実験により、このアプローチは複数の匿名化器に有効であることが示された。
- 参考スコア(独自算出の注目度): 12.642704894600602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current privacy evaluation for speaker anonymization often overestimates privacy when a same-gender target selection algorithm (TSA) is used, although this TSA leaks the speaker's gender and should hence be more vulnerable. We hypothesize that this occurs because the evaluation does not account for the fact that anonymized speech contains information from both the source and target speakers. To address this, we propose to add a target classifier that measures the influence of target speaker information in the evaluation, which can also be removed with adversarial learning. Experiments demonstrate that this approach is effective for multiple anonymizers, particularly when using a same-gender TSA, leading to a more reliable assessment.
- Abstract(参考訳): 話者匿名化の現在のプライバシー評価は、同じ性別のターゲット選択アルゴリズム(TSA)を使用する場合、しばしばプライバシーを過大評価する。
匿名化音声がソース話者とターゲット話者の両方の情報を含んでいるという事実を考慮しないため,これを仮定する。
そこで本研究では,評価における対象話者情報の影響を計測するターゲット分類器を提案する。
実験により、このアプローチは複数の匿名化器、特に同一性別のTSAを使用する場合に有効であることが示され、より信頼性の高い評価が導かれる。
関連論文リスト
- Multi-Target Backdoor Attacks Against Speaker Recognition [60.8399833165557]
位置に依存しないクリック音を用いた話者識別に対するマルチターゲットバックドア攻撃を提案する。
提案手法は最大50人の話者を同時に対象とし,95.04%の成功率を達成した。
論文 参考訳(メタデータ) (2025-08-12T01:52:30Z) - Anonymizing Speech: Evaluating and Designing Speaker Anonymization
Techniques [1.2691047660244337]
音声ユーザインタフェースの利用が増加し、音声データの収集と保存が急増した。
本論文は、音声の匿名化と匿名化の程度を評価するためのソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-05T16:14:17Z) - When the Majority is Wrong: Modeling Annotator Disagreement for Subjective Tasks [45.14664901245331]
ヘイトスピーチの検出における重要な問題は、ある声明が人口集団に対して攻撃的であるかどうかを決定することである。
我々は、潜在的に攻撃的なテキストに基づいて、個々のアノテータ評価を予測するモデルを構築した。
その結果、アノテータの評価は、その人口統計情報とオンラインコンテンツに関する意見を用いて予測できることがわかった。
論文 参考訳(メタデータ) (2023-05-11T07:55:20Z) - Membership Inference Attacks Against Self-supervised Speech Models [62.73937175625953]
連続音声における自己教師付き学習(SSL)が注目されている。
ブラックボックスアクセス下でのMIA(Commanship Inference Attacks)を用いたSSL音声モデルに対する最初のプライバシ分析を行う。
論文 参考訳(メタデータ) (2021-11-09T13:00:24Z) - Evaluating X-vector-based Speaker Anonymization under White-box
Assessment [0.0]
Voice Privacyチャレンジのシナリオでは、ソーススピーカーからすべての発話を同じターゲットIDに適合させることで、匿名化を実現する。
本稿では,標的選択を特定のアイデンティティに限定して,ホワイトボックス評価の下での極端な脅威を評価することを提案する。
論文 参考訳(メタデータ) (2021-09-24T13:08:07Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Design Choices for X-vector Based Speaker Anonymization [48.46018902334472]
第1回VoicePrivacy Challengeのベースラインとして,フレキシブルな擬似話者選択手法を提案する。
LibriSpeechから派生したデータセットを使用して実験を行い、プライバシとユーティリティの観点から設計選択の最適な組み合わせを見つける。
論文 参考訳(メタデータ) (2020-05-18T11:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。