論文の概要: Inference Attacks for X-Vector Speaker Anonymization
- arxiv url: http://arxiv.org/abs/2505.08978v1
- Date: Tue, 13 May 2025 21:42:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.300808
- Title: Inference Attacks for X-Vector Speaker Anonymization
- Title(参考訳): Xベクトル話者匿名化のための推論攻撃
- Authors: Luke Bauer, Wenxuan Bao, Malvika Jadhav, Vincent Bindschaedler,
- Abstract要約: 我々は、xベクトル話者匿名化のプライバシーとユーティリティのトレードオフを再考する。
匿名化のための新しい推論攻撃を提案する。
- 参考スコア(独自算出の注目度): 5.883323796501865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the privacy-utility tradeoff of x-vector speaker anonymization. Existing approaches quantify privacy through training complex speaker verification or identification models that are later used as attacks. Instead, we propose a novel inference attack for de-anonymization. Our attack is simple and ML-free yet we show experimentally that it outperforms existing approaches.
- Abstract(参考訳): 我々は、xベクトル話者匿名化のプライバシーとユーティリティのトレードオフを再考する。
既存のアプローチは、後に攻撃として使用される複雑な話者検証や識別モデルをトレーニングすることで、プライバシを定量化する。
代わりに、匿名化のための新しい推論攻撃を提案する。
私たちの攻撃は単純でMLフリーですが、既存のアプローチよりも優れていることが実験的に示されています。
関連論文リスト
- A Universal Identity Backdoor Attack against Speaker Verification based on Siamese Network [13.331857487581637]
本稿では,話者認証システムに対するバックドア攻撃を提案する。
我々は、任意の登録話者をシミュレートし、検証に合格できるユニバーサルアイデンティティーをモデルに埋め込む。
本研究は,話者認証システムの脆弱性を明らかにし,システムの堅牢性をさらに向上するための新たな視点を提供する。
論文 参考訳(メタデータ) (2023-03-28T14:57:05Z) - Dictionary Attacks on Speaker Verification [15.00667613025837]
様々な音声表現と脅威モデルで使用できる攻撃の汎用的定式化を導入する。
攻撃者は、逆最適化を用いて、シード音声サンプルとプロキシ集団との話者埋め込みの生の類似性を最大化する。
この攻撃は、複数の試みと組み合わさって、これらのシステムのセキュリティに関する深刻な問題にさらに開きます。
論文 参考訳(メタデータ) (2022-04-24T15:31:41Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Speaker Anonymization with Distribution-Preserving X-Vector Generation
for the VoicePrivacy Challenge 2020 [19.420608243033794]
本稿では,VoicePrivacy Challenge 2020への提出として,分散保存音声匿名化手法を提案する。
提案手法は, 有機話者Xベクトルの相似性分布をより正確に追従するXベクトルを生成する方法を示す。
論文 参考訳(メタデータ) (2020-10-26T09:53:56Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Design Choices for X-vector Based Speaker Anonymization [48.46018902334472]
第1回VoicePrivacy Challengeのベースラインとして,フレキシブルな擬似話者選択手法を提案する。
LibriSpeechから派生したデータセットを使用して実験を行い、プライバシとユーティリティの観点から設計選択の最適な組み合わせを見つける。
論文 参考訳(メタデータ) (2020-05-18T11:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。