論文の概要: Private Speech Classification with Secure Multiparty Computation
- arxiv url: http://arxiv.org/abs/2007.00253v2
- Date: Thu, 28 Jan 2021 20:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:54:40.035171
- Title: Private Speech Classification with Secure Multiparty Computation
- Title(参考訳): セキュアなマルチパーティ計算による個人音声分類
- Authors: Kyle Bittner, Martine De Cock, Rafael Dowsley
- Abstract要約: 深層学習に基づく音声分類のための最初のプライバシ保護ソリューションを提案する。
我々のアプローチでは、BobがAliceの音声信号を暗号化されていない方法で見ることなく、あるパーティの音声信号を別のパーティのディープニューラルネットワークで分類することができる。
畳み込みニューラルネットワークを用いた音声からのプライバシー保護感情検出のユースケースとして,提案手法の効率・セキュリティ・正確性トレードオフを評価する。
- 参考スコア(独自算出の注目度): 15.065527713259542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning in audio signal processing, such as human voice audio signal
classification, is a rich application area of machine learning. Legitimate use
cases include voice authentication, gunfire detection, and emotion recognition.
While there are clear advantages to automated human speech classification,
application developers can gain knowledge beyond the professed scope from
unprotected audio signal processing. In this paper we propose the first
privacy-preserving solution for deep learning-based audio classification that
is provably secure. Our approach, which is based on Secure Multiparty
Computation, allows to classify a speech signal of one party (Alice) with a
deep neural network of another party (Bob) without Bob ever seeing Alice's
speech signal in an unencrypted manner. As threat models, we consider both
passive security, i.e. with semi-honest parties who follow the instructions of
the cryptographic protocols, as well as active security, i.e. with malicious
parties who deviate from the protocols. We evaluate the
efficiency-security-accuracy trade-off of the proposed solution in a use case
for privacy-preserving emotion detection from speech with a convolutional
neural network. In the semi-honest case we can classify a speech signal in
under 0.3 sec; in the malicious case it takes $\sim$1.6 sec. In both cases
there is no leakage of information, and we achieve classification accuracies
that are the same as when computations are done on unencrypted data.
- Abstract(参考訳): 人間の音声信号分類のような音声信号処理における深層学習は、機械学習の豊富な応用分野である。
正当なユースケースには、音声認証、銃声検出、感情認識などがある。
自動化された人間の音声分類には明確な利点があるが、アプリケーション開発者は保護されていない音声信号処理から熟練した範囲を超えて知識を得ることができる。
本稿では,深層学習に基づく音声分類のための,最初のプライバシー保護ソリューションを提案する。
我々のアプローチはセキュアなマルチパーティ計算に基づいており、BobがAliceの音声信号を暗号化されていない方法で見ることなく、あるパーティ(Alice)の音声信号を別のパーティ(Bob)のディープニューラルネットワークで分類することができる。
脅威モデルとして、受動的セキュリティ、すなわち暗号プロトコルの指示に従う半正統なパーティと、プロトコルから逸脱する悪意のあるパーティの両方を考慮する。
畳み込みニューラルネットワークを用いた音声からのプライバシー保護感情検出のユースケースにおいて,提案手法の効率・セキュリティ・正確性トレードオフを評価する。
半正統な場合には0.3秒以下で音声信号を分類でき、悪意のある場合は$\sim$1.6秒かかる。
いずれの場合も情報の漏洩はなく,暗号化されていないデータ上で計算を行う場合と同じ分類精度を達成する。
関連論文リスト
- SafeEar: Content Privacy-Preserving Audio Deepfake Detection [17.859275594843965]
音声コンテンツにアクセスすることなくディープフェイク音声を検知する新しいフレームワークであるSafeEarを提案する。
私たちのキーとなるアイデアは、ニューラルオーディオを、セマンティックおよび音響情報をオーディオサンプルから適切に分離する、新しいデカップリングモデルに組み込むことです。
このようにして、セマンティックな内容が検出器に露出されることはない。
論文 参考訳(メタデータ) (2024-09-14T02:45:09Z) - Imperceptible Rhythm Backdoor Attacks: Exploring Rhythm Transformation for Embedding Undetectable Vulnerabilities on Speech Recognition [4.164975438207411]
近年,音声認識システムにおいて,典型的なバックドア攻撃が研究されている。
攻撃者は、良質な音声スペクトログラムにいくつかの組み込まれた変更を加えたり、ピッチや音色などの音声成分を変更したりする。
データ中毒のステルス性を改善するために,ランダム・スペクトログラム・リズム・トランスフォーメーション (Random Spectrogram Rhythm Transformation) と呼ばれる非ニューラルかつ高速なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:21Z) - Faked Speech Detection with Zero Prior Knowledge [2.407976495888858]
本稿では,入力音声を実物または模倣物として盲目的に分類する分類器を開発するニューラルネットワーク手法を提案する。
本稿では,3層を隠蔽し,重層と落層を交互に交互に配置した逐次モデルに基づくディープニューラルネットワークを提案する。
人間の観察者の場合の85%の精度に対して、テストケースの94%の正確な分類が得られた。
論文 参考訳(メタデータ) (2022-09-26T10:38:39Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Self-supervised Learning with Random-projection Quantizer for Speech
Recognition [51.24368930992091]
音声認識のためのシンプルで効果的な自己教師型学習手法を提案する。
このアプローチは、離散ラベルの形で、マスキングされた音声信号を予測するモデルを学ぶ。
非ストリーミングモデルを用いた自己教師付き学習を用いて、従来の作業と同じような単語エラー率を達成する。
論文 参考訳(メタデータ) (2022-02-03T21:29:04Z) - Wav2vec-Switch: Contrastive Learning from Original-noisy Speech Pairs
for Robust Speech Recognition [52.71604809100364]
音声の文脈化表現に雑音のロバスト性をエンコードするwav2vec-Switchを提案する。
具体的には、オリジナルノイズの多い音声ペアを同時にwav2vec 2.0ネットワークに供給する。
既存のコントラスト学習タスクに加えて、原音声と雑音音声の量子化表現を追加の予測対象に切り替える。
論文 参考訳(メタデータ) (2021-10-11T00:08:48Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。