論文の概要: Privacy-preserving and Privacy-attacking Approaches for Speech and Audio -- A Survey
- arxiv url: http://arxiv.org/abs/2309.15087v1
- Date: Tue, 26 Sep 2023 17:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 03:41:25.510967
- Title: Privacy-preserving and Privacy-attacking Approaches for Speech and Audio -- A Survey
- Title(参考訳): 音声・音声のプライバシー保護とプライバシー侵害
- Authors: Yuchen Liu, Apu Kapadia, Donald Williamson,
- Abstract要約: 本稿では,音声・音声のプライバシー保護・プライバシー侵害対策の既存手法について検討する。
攻撃シナリオと防御シナリオをいくつかのカテゴリに分類し,各アプローチの詳細な分析を行う。
我々の調査によると、ニューラルネットワークに基づく音声制御デバイスは、本質的に特定の種類の攻撃の影響を受けやすい。
- 参考スコア(独自算出の注目度): 7.88857172307008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contemporary society, voice-controlled devices, such as smartphones and home assistants, have become pervasive due to their advanced capabilities and functionality. The always-on nature of their microphones offers users the convenience of readily accessing these devices. However, recent research and events have revealed that such voice-controlled devices are prone to various forms of malicious attacks, hence making it a growing concern for both users and researchers to safeguard against such attacks. Despite the numerous studies that have investigated adversarial attacks and privacy preservation for images, a conclusive study of this nature has not been conducted for the audio domain. Therefore, this paper aims to examine existing approaches for privacy-preserving and privacy-attacking strategies for audio and speech. To achieve this goal, we classify the attack and defense scenarios into several categories and provide detailed analysis of each approach. We also interpret the dissimilarities between the various approaches, highlight their contributions, and examine their limitations. Our investigation reveals that voice-controlled devices based on neural networks are inherently susceptible to specific types of attacks. Although it is possible to enhance the robustness of such models to certain forms of attack, more sophisticated approaches are required to comprehensively safeguard user privacy.
- Abstract(参考訳): 現代社会では、スマートフォンやホームアシスタントなどの音声制御デバイスが、その高度な能力と機能のために普及している。
常時オンのマイクは、これらのデバイスに簡単にアクセスできる利便性を提供する。
しかし、最近の研究や出来事により、このような音声制御デバイスは様々な種類の悪意のある攻撃をしがちであることが明らかになっているため、ユーザーと研究者の両方がそのような攻撃から保護することへの懸念が高まっている。
画像に対する敵対的攻撃とプライバシ保護を調査してきた多くの研究にもかかわらず、この性質に関する決定的な研究は、オーディオ領域では行われていない。
そこで本研究では,音声・音声のプライバシー保護・プライバシー侵害対策の既存手法について検討する。
この目的を達成するため、攻撃シナリオと防御シナリオをいくつかのカテゴリに分類し、各アプローチの詳細な分析を行う。
また、様々なアプローチの相違を解釈し、その貢献を強調し、その限界について検討する。
我々の調査によると、ニューラルネットワークに基づく音声制御デバイスは、本質的に特定の種類の攻撃の影響を受けやすい。
このようなモデルの堅牢性を特定の攻撃形態に拡張することは可能だが、ユーザプライバシを包括的に保護するためには、より高度なアプローチが必要である。
関連論文リスト
- Scenario of Use Scheme: Threat Model Specification for Speaker Privacy Protection in the Medical Domain [5.40729975786985]
本稿では,話者のプライバシを守らなければならない相手を特徴付けるアタッカーモデルと,その防衛を規定するプロテクタモデルとを組み込んだユースケースシナリオ・オブ・ユース・スキームを提案する。
本稿では,特定のシナリオ・オブ・ユース(Senario of Use)の具体例と,パーキンソン検出の実用性を維持しつつ,ジェンダー推論攻撃から話者データを保護するための一連の実験について述べる。
論文 参考訳(メタデータ) (2024-09-24T14:07:47Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - STAA-Net: A Sparse and Transferable Adversarial Attack for Speech
Emotion Recognition [36.73727306933382]
本稿では,SERモデルを騙すために,スパースおよびトランスファー可能な逆数例を生成するジェネレータベースの攻撃手法を提案する。
我々は、広く使われている2つのSERデータセット、DEMoS(DemoS)とIEMOCAP(Interactive Emotional Dyadic Motion CAPture)について、本手法の評価を行った。
論文 参考訳(メタデータ) (2024-02-02T08:46:57Z) - The defender's perspective on automatic speaker verification: An
overview [87.83259209657292]
自動話者検証(ASV)の信頼性は、スプーフィング攻撃の出現によって損なわれている。
本研究の目的は、これらの攻撃に対して使用される防御方法について、徹底的かつ体系的に概説することである。
論文 参考訳(メタデータ) (2023-05-22T08:01:59Z) - Defense Against Adversarial Attacks on Audio DeepFake Detection [0.4511923587827302]
Audio DeepFakes (DF) は、ディープラーニングを用いて人工的に生成された発話である。
脅威を防ぐために、生成された音声を検出する複数のニューラルネットワークベースの手法が提案されている。
論文 参考訳(メタデータ) (2022-12-30T08:41:06Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - A Survey of Privacy Attacks in Machine Learning [0.7614628596146599]
この研究は、機械学習に対するプライバシー攻撃に関連する40以上の論文の分析である。
プライバシリークの原因についての最初の調査と、異なる攻撃の詳細な分析が紹介されている。
本稿では,最も一般的に提案されている防衛の概観と,分析において確認されたオープンな問題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-07-15T12:09:53Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。