論文の概要: Speech Privacy Leakage from Shared Gradients in Distributed Learning
- arxiv url: http://arxiv.org/abs/2302.10441v1
- Date: Tue, 21 Feb 2023 04:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:13:32.192044
- Title: Speech Privacy Leakage from Shared Gradients in Distributed Learning
- Title(参考訳): 分散学習における共有勾配からの音声プライバシー漏洩
- Authors: Zhuohang Li, Jiaxin Zhang, Jian Liu
- Abstract要約: 分散学習環境における共有勾配から個人音声/話者情報を復元する方法を探索する。
本研究では,分散学習フレームワークを用いて,音声内容や話者識別など,さまざまなレベルの側チャネル情報を推定できることを実証する。
- 参考スコア(独自算出の注目度): 7.8470002970302195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed machine learning paradigms, such as federated learning, have been
recently adopted in many privacy-critical applications for speech analysis.
However, such frameworks are vulnerable to privacy leakage attacks from shared
gradients. Despite extensive efforts in the image domain, the exploration of
speech privacy leakage from gradients is quite limited. In this paper, we
explore methods for recovering private speech/speaker information from the
shared gradients in distributed learning settings. We conduct experiments on a
keyword spotting model with two different types of speech features to quantify
the amount of leaked information by measuring the similarity between the
original and recovered speech signals. We further demonstrate the feasibility
of inferring various levels of side-channel information, including speech
content and speaker identity, under the distributed learning framework without
accessing the user's data.
- Abstract(参考訳): フェデレーション学習のような分散機械学習パラダイムは、近年、音声分析にプライバシクリティカルな多くのアプリケーションで採用されている。
しかし、そのようなフレームワークは共有勾配からのプライバシー漏洩攻撃に弱い。
画像領域における広範な取り組みにもかかわらず、勾配からの音声プライバシー漏洩の探索は非常に限られている。
本稿では,分散学習環境における共有勾配から個人音声/話者情報を復元する方法を検討する。
2種類の異なる音声特徴を持つキーワードスポッティングモデルで実験を行い、元の音声信号と復元された音声信号の類似度を測定して漏洩情報の量を測定する。
さらに,ユーザデータにアクセスせずに,分散学習フレームワーク下で,音声コンテンツや話者識別など,サイドチャネル情報のさまざまなレベルを推測できることを実証する。
関連論文リスト
- Representation Learning for Audio Privacy Preservation using Source
Separation and Robust Adversarial Learning [16.1694012177079]
本稿では,プライバシ保護における2つの一般的なアプローチ – ソース分離と逆表現学習 – の統合を提案する。
提案システムは,音声録音と非音声録音の区別を防止するために,音声録音の潜在表現を学習する。
論文 参考訳(メタデータ) (2023-08-09T13:50:00Z) - Improving the Gap in Visual Speech Recognition Between Normal and Silent
Speech Based on Metric Learning [11.50011780498048]
本稿では,視覚音声認識(VSR)における正常音声と無声音声のパフォーマンスギャップに対処する新しい距離学習手法を提案する。
本稿では,通常の音声とサイレント音声の共有リテラルコンテンツを活用し,ビセムに基づく計量学習手法を提案する。
本手法は,限られた訓練データであってもサイレントVSRの精度が向上することを示す。
論文 参考訳(メタデータ) (2023-05-23T16:20:46Z) - Self-supervised Fine-tuning for Improved Content Representations by
Speaker-invariant Clustering [78.2927924732142]
話者不変クラスタリング(Spin)を自己教師付き学習手法として提案する。
Spinは、単一のGPU上で45分間の微調整で、スピーカー情報を切り離し、コンテンツ表現を保存する。
論文 参考訳(メタデータ) (2023-05-18T15:59:36Z) - Adversarial Representation Learning for Robust Privacy Preservation in
Audio [11.409577482625053]
音響イベント検出システムは、ユーザーまたはその周辺に関する機密情報を不注意に明らかにすることができる。
本稿では,音声記録の表現を学習するための新しい逆学習法を提案する。
提案手法は,プライバシ対策を伴わないベースライン手法と,事前の逆行訓練法とを併用して評価する。
論文 参考訳(メタデータ) (2023-04-29T08:39:55Z) - Bootstrapping meaning through listening: Unsupervised learning of spoken
sentence embeddings [4.582129557845177]
本研究では,音声発話における意味表現の教師なし学習に取り組む。
音声の高密度表現から隠れ単位を予測するシーケンシャルオートエンコーダWavEmbedを提案する。
また,S-HuBERTを用いて知識蒸留による意味の誘導を提案する。
論文 参考訳(メタデータ) (2022-10-23T21:16:09Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Membership Inference Attacks Against Self-supervised Speech Models [62.73937175625953]
連続音声における自己教師付き学習(SSL)が注目されている。
ブラックボックスアクセス下でのMIA(Commanship Inference Attacks)を用いたSSL音声モデルに対する最初のプライバシ分析を行う。
論文 参考訳(メタデータ) (2021-11-09T13:00:24Z) - CAPE: Context-Aware Private Embeddings for Private Language Learning [0.5156484100374058]
Context-Aware Private Embeddings (CAPE)は、埋め込みのトレーニング中にプライバシを保存する新しいアプローチである。
CAPEはディファレンシャルプライバシを通じて校正ノイズを適用し、機密情報を隠蔽しながらエンコードされたセマンティックリンクを保存する。
実験結果から,提案手法は単一介入よりも情報漏洩を低減させることが示された。
論文 参考訳(メタデータ) (2021-08-27T14:50:12Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。