論文の概要: Generating gender-ambiguous voices for privacy-preserving speech
recognition
- arxiv url: http://arxiv.org/abs/2207.01052v1
- Date: Sun, 3 Jul 2022 14:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 09:28:55.353379
- Title: Generating gender-ambiguous voices for privacy-preserving speech
recognition
- Title(参考訳): プライバシー保護音声認識のための性別あいまい音声の生成
- Authors: Dimitrios Stoidis and Andrea Cavallaro
- Abstract要約: 我々は、話者の性別やアイデンティティを隠蔽する音声を合成する生成的敵ネットワークGenGANを提案する。
我々は、性別情報のみにジェネレータを条件とし、信号歪みとプライバシ保護の間の敵対的損失を利用する。
- 参考スコア(独自算出の注目度): 38.733077459065704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our voice encodes a uniquely identifiable pattern which can be used to infer
private attributes, such as gender or identity, that an individual might wish
not to reveal when using a speech recognition service. To prevent attribute
inference attacks alongside speech recognition tasks, we present a generative
adversarial network, GenGAN, that synthesises voices that conceal the gender or
identity of a speaker. The proposed network includes a generator with a U-Net
architecture that learns to fool a discriminator. We condition the generator
only on gender information and use an adversarial loss between signal
distortion and privacy preservation. We show that GenGAN improves the trade-off
between privacy and utility compared to privacy-preserving representation
learning methods that consider gender information as a sensitive attribute to
protect.
- Abstract(参考訳): 我々の音声は、個人が音声認識サービスを使用する際に明かさないように、性別やアイデンティティなどの個人属性を推測するために使用できる、一意に識別可能なパターンを符号化する。
音声認識タスクと並行して属性推論攻撃を防止するために,話者の性別やアイデンティティを隠す音声を合成する生成的逆ネットワークgenganを提案する。
提案するネットワークは、識別器を騙すことを学習するU-Netアーキテクチャのジェネレータを含む。
我々は、性別情報のみにジェネレータを条件とし、信号歪みとプライバシ保護の間の逆損失を利用する。
GenGANは、ジェンダー情報を保護する機密属性とみなすプライバシー保護表現学習法と比較して、プライバシとユーティリティのトレードオフを改善する。
関連論文リスト
- Asynchronous Voice Anonymization Using Adversarial Perturbation On Speaker Embedding [46.25816642820348]
我々は、人間の知覚を維持しながら、音声認識に対して音声属性を変更することに重点を置いている。
話者ゆがみ機構を組み込んだ音声生成フレームワークを用いて匿名化音声を生成する。
LibriSpeechデータセットで行った実験では、話者の属性は、その人の知覚が処理された発話の60.71%で保存されていることが判明した。
論文 参考訳(メタデータ) (2024-06-12T13:33:24Z) - Anonymizing Speech: Evaluating and Designing Speaker Anonymization
Techniques [1.2691047660244337]
音声ユーザインタフェースの利用が増加し、音声データの収集と保存が急増した。
本論文は、音声の匿名化と匿名化の程度を評価するためのソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-05T16:14:17Z) - Anonymizing Speech with Generative Adversarial Networks to Preserve
Speaker Privacy [22.84840887071428]
話者匿名化は、音声録音における音声を変化させることで話者の同一性を隠蔽することを目的としている。
これは一般的に、個人の保護とダウンストリームアプリケーションにおけるデータのユーザビリティとの間の、プライバシーとユーティリティのトレードオフが伴う。
本稿では,ワッサースタイン距離をコスト関数として生成した逆数ネットワークを用いて話者埋め込みを生成することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-10-13T13:12:42Z) - Differentially Private Speaker Anonymization [44.90119821614047]
実世界の発話を共有することが、音声ベースのサービスのトレーニングと展開の鍵となる。
話者匿名化は、言語的および韻律的属性をそのまま残しながら、発話から話者情報を除去することを目的としている。
言語的属性と韻律的属性は依然として話者情報を含んでいる。
論文 参考訳(メタデータ) (2022-02-23T23:20:30Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z) - Adversarial Disentanglement of Speaker Representation for
Attribute-Driven Privacy Preservation [17.344080729609026]
話者音声表現における属性駆動プライバシー保存の概念について紹介する。
これにより、悪意のあるインターセプターやアプリケーションプロバイダに1つ以上の個人的な側面を隠すことができる。
本稿では,話者属性の音声表現に絡み合った逆自動符号化手法を提案し,その隠蔽を可能にする。
論文 参考訳(メタデータ) (2020-12-08T14:47:23Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。