論文の概要: Configurable Privacy-Preserving Automatic Speech Recognition
- arxiv url: http://arxiv.org/abs/2104.00766v1
- Date: Thu, 1 Apr 2021 21:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:56:07.477369
- Title: Configurable Privacy-Preserving Automatic Speech Recognition
- Title(参考訳): 設定可能なプライバシー保護自動音声認識
- Authors: Ranya Aloufi, Hamed Haddadi, David Boyle
- Abstract要約: 音声支援システムにおけるモジュラ自動音声認識がプライバシーを向上するかどうかを検討する。
プライバシの懸念と,システムの各ステージに様々な最先端技術を適用する効果を示す。
これはASRを組み込んだプライバシー保護アプリケーションに新たな機会をもたらすと我々は主張する。
- 参考スコア(独自算出の注目度): 5.730142956540673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice assistive technologies have given rise to far-reaching privacy and
security concerns. In this paper we investigate whether modular automatic
speech recognition (ASR) can improve privacy in voice assistive systems by
combining independently trained separation, recognition, and discretization
modules to design configurable privacy-preserving ASR systems. We evaluate
privacy concerns and the effects of applying various state-of-the-art
techniques at each stage of the system, and report results using task-specific
metrics (i.e. WER, ABX, and accuracy). We show that overlapping speech inputs
to ASR systems present further privacy concerns, and how these may be mitigated
using speech separation and optimization techniques. Our discretization module
is shown to minimize paralinguistics privacy leakage from ASR acoustic models
to levels commensurate with random guessing. We show that voice privacy can be
configurable, and argue this presents new opportunities for privacy-preserving
applications incorporating ASR.
- Abstract(参考訳): 音声アシスタント技術は、プライバシーとセキュリティの懸念をはるかに高めている。
本稿では,モジュール型自動音声認識(ASR)が独立に訓練された分離・認識・離散化モジュールを組み合わせることで,音声支援システムのプライバシーを向上できるかどうかを検討する。
プライバシの懸念と,システムの各段階における各種技術の適用効果を評価し,タスク固有の指標(すなわち,タスク固有の指標)を用いて結果を報告する。
WER, ABX, and accuracy)。
ASRシステムへの重なり合う音声入力は、さらなるプライバシー上の懸念を生じさせ、これらを音声分離と最適化技術を用いて緩和する方法を示す。
我々の離散化モジュールは、ASR音響モデルからランダムな推測に相応しいレベルへのパラ言語的プライバシー漏洩を最小限に抑える。
音声プライバシーは設定可能であることを示し、これがASRを取り入れたプライバシー保護アプリケーションに新たな機会をもたらすと論じている。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Children's Speech Recognition through Discrete Token Enhancement [7.964926333613502]
本研究では,ASRの性能を著しく低下させることなく,個々の音声トークンを幼児の音声認識システムに組み込むことを入力として検討する。
その結果,子供用離散トークンASRは,約83%のパラメータでほぼ同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2024-06-19T10:45:12Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Representation Learning for Audio Privacy Preservation using Source
Separation and Robust Adversarial Learning [16.1694012177079]
本稿では,プライバシ保護における2つの一般的なアプローチ – ソース分離と逆表現学習 – の統合を提案する。
提案システムは,音声録音と非音声録音の区別を防止するために,音声録音の潜在表現を学習する。
論文 参考訳(メタデータ) (2023-08-09T13:50:00Z) - Anonymizing Speech with Generative Adversarial Networks to Preserve
Speaker Privacy [22.84840887071428]
話者匿名化は、音声録音における音声を変化させることで話者の同一性を隠蔽することを目的としている。
これは一般的に、個人の保護とダウンストリームアプリケーションにおけるデータのユーザビリティとの間の、プライバシーとユーティリティのトレードオフが伴う。
本稿では,ワッサースタイン距離をコスト関数として生成した逆数ネットワークを用いて話者埋め込みを生成することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-10-13T13:12:42Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Voice Privacy with Smart Digital Assistants in Educational Settings [1.8369974607582578]
ソースにおける音声プライバシーのための実用的で効率的なフレームワークを設計・評価する。
このアプローチでは、話者識別(SID)と音声変換法を組み合わせて、音声を記録するデバイス上でユーザのアイデンティティをランダムに偽装する。
我々は、単語誤り率の観点から変換のASR性能を評価し、入力音声の内容を保存する上で、このフレームワークの約束を示す。
論文 参考訳(メタデータ) (2021-03-24T19:58:45Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Paralinguistic Privacy Protection at the Edge [5.349852254138085]
EDGYは高次元音声データを変換・フィルタリングする表現学習フレームワークで,クラウドへのオフロードに先立ってエッジの感度特性を識別・保持する。
その結果, EDGYは数ミリ秒で動作し, ABXスコアは0.2%向上し, 生音声信号から言語表現を学習する際のペナルティは最小限に抑えられた。
論文 参考訳(メタデータ) (2020-11-04T14:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。