論文の概要: EveGuard: Defeating Vibration-based Side-Channel Eavesdropping with Audio Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2411.10034v1
- Date: Fri, 15 Nov 2024 08:32:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:36:52.231980
- Title: EveGuard: Defeating Vibration-based Side-Channel Eavesdropping with Audio Adversarial Perturbations
- Title(参考訳): EveGuard: 振動をベースとしたサイドチャネルの盗聴
- Authors: Jung-Woo Chang, Ke Sun, David Xia, Xinyu Zhang, Farinaz Koushanfar,
- Abstract要約: バイブロメトリベースのサイドチャネルは、重大なプライバシーリスクをもたらす。
本稿では,対戦型音声を生成するソフトウェア駆動型防衛フレームワークであるEveGuardについて述べる。
- 参考スコア(独自算出の注目度): 20.24818641890496
- License:
- Abstract: Vibrometry-based side channels pose a significant privacy risk, exploiting sensors like mmWave radars, light sensors, and accelerometers to detect vibrations from sound sources or proximate objects, enabling speech eavesdropping. Despite various proposed defenses, these involve costly hardware solutions with inherent physical limitations. This paper presents EveGuard, a software-driven defense framework that creates adversarial audio, protecting voice privacy from side channels without compromising human perception. We leverage the distinct sensing capabilities of side channels and traditional microphones where side channels capture vibrations and microphones record changes in air pressure, resulting in different frequency responses. EveGuard first proposes a perturbation generator model (PGM) that effectively suppresses sensor-based eavesdropping while maintaining high audio quality. Second, to enable end-to-end training of PGM, we introduce a new domain translation task called Eve-GAN for inferring an eavesdropped signal from a given audio. We further apply few-shot learning to mitigate the data collection overhead for Eve-GAN training. Our extensive experiments show that EveGuard achieves a protection rate of more than 97 percent from audio classifiers and significantly hinders eavesdropped audio reconstruction. We further validate the performance of EveGuard across three adaptive attack mechanisms. We have conducted a user study to verify the perceptual quality of our perturbed audio.
- Abstract(参考訳): バイブロメトリベースのサイドチャネルは、ミリ波レーダー、光センサー、加速度計などのセンサーを利用して、音源や近接物体からの振動を検知し、音声の盗聴を可能にする。
様々な防御策が提案されているにもかかわらず、これらには固有の物理的制限を伴う高価なハードウェアソリューションが含まれる。
本稿では,人間の知覚を損なうことなく,サイドチャネルから音声のプライバシを保護するソフトウェア駆動型防衛フレームワークであるEveGuardについて述べる。
側流路が振動を捉え、マイクロホンが空気圧の変化を記録し、異なる周波数応答をもたらすような、側流路と従来のマイクロホンの異なる知覚能力を活用する。
EveGuardはまず、高音質を維持しながらセンサによる盗聴を効果的に抑制する摂動発生モデル(PGM)を提案する。
第二に、PGMのエンドツーエンドトレーニングを可能にするために、Eve-GANと呼ばれる新しいドメイン翻訳タスクを導入し、あるオーディオから盗聴された信号を推測する。
さらに、Eve-GANトレーニングのためのデータ収集オーバーヘッドを軽減するために、数ショットの学習を適用します。
広範にわたる実験の結果,EveGuardは音声分類器から97%以上の保護率を獲得し,盗聴された音声の復元を著しく妨げていることがわかった。
さらに,3つのアダプティブアタック機構におけるEveGuardの性能を検証する。
我々は,摂動音声の知覚的品質を検証するために,ユーザスタディを実施している。
関連論文リスト
- PIXHELL Attack: Leaking Sensitive Information from Air-Gap Computers via `Singing Pixels' [1.74048653626208]
PIXHELLは、新しいタイプの秘密チャンネル攻撃で、スクリーン上のピクセルが生成したノイズによって、ハッカーが情報を漏洩することができる。
悪意のあるコードは、コイルやコンデンサによって発生する音を利用して、画面から発する周波数を制御する。
実験の結果, PIXHELL攻撃では, LCD画面から変調した音により, 2m離れた距離から, 音声を受信したコンピュータからテキストとバイナリデータを抽出できることがわかった。
論文 参考訳(メタデータ) (2024-09-07T23:09:56Z) - Proactive Detection of Voice Cloning with Localized Watermarking [50.13539630769929]
本稿では,AI生成音声の局所検出に特化して設計された,最初の音声透かし技術であるAudioSealを紹介する。
AudioSealは、ローカライゼーションロスと共同でトレーニングされたジェネレータ/検出器アーキテクチャを使用して、サンプルレベルまでローカライズされた透かし検出を可能にする。
AudioSealは、実生活のオーディオ操作に対する堅牢性と、自動的および人的評価指標に基づく非知覚性の観点から、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-01-30T18:56:22Z) - Phoneme-Based Proactive Anti-Eavesdropping with Controlled Recording Privilege [26.3587130339825]
本稿では,情報マスキングのアイデアを取り入れた新しい音素ベースノイズを提案する。
本システムでは,すべての音声認識システムにおいて,録音の認識精度を50%以下に抑えることができる。
論文 参考訳(メタデータ) (2024-01-28T16:56:56Z) - NUANCE: Near Ultrasound Attack On Networked Communication Environments [0.0]
本研究では, 近距離超音波トロイの木馬を用いたAmazon Alexa音声サービスにおける難聴攻撃ベクトルについて検討した。
この研究は、各攻撃ベクトルをMITRE ATT&CK行列から戦術またはテクニックにマッピングする。
実験では、攻撃の有効性を評価するために50個の近超音波を生成し、調査した。
論文 参考訳(メタデータ) (2023-04-25T23:28:46Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - WaveGuard: Understanding and Mitigating Audio Adversarial Examples [12.010555227327743]
本稿では,ASRシステムに対する敵入力を検出するフレームワークであるWaveGuardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
論文 参考訳(メタデータ) (2021-03-04T21:44:37Z) - Speech Enhancement for Wake-Up-Word detection in Voice Assistants [60.103753056973815]
キースポッティング、特にWake-Up-Word(WUW)検出は音声アシスタントにとって非常に重要なタスクである。
本稿では,WUW検出に適応した音声強調モデルを提案する。
これらのノイズの存在下で、認識率を高め、誤報を減らすことを目的としている。
論文 参考訳(メタデータ) (2021-01-29T18:44:05Z) - Paralinguistic Privacy Protection at the Edge [5.349852254138085]
EDGYは高次元音声データを変換・フィルタリングする表現学習フレームワークで,クラウドへのオフロードに先立ってエッジの感度特性を識別・保持する。
その結果, EDGYは数ミリ秒で動作し, ABXスコアは0.2%向上し, 生音声信号から言語表現を学習する際のペナルティは最小限に抑えられた。
論文 参考訳(メタデータ) (2020-11-04T14:11:35Z) - Deep Speaker Embeddings for Far-Field Speaker Recognition on Short
Utterances [53.063441357826484]
深層話者埋め込みに基づく話者認識システムは,制御条件下での大幅な性能向上を実現している。
制御されていない雑音環境下での短い発話に対する話者検証は、最も困難で要求の高いタスクの1つである。
本稿では,a)環境騒音の有無による遠距離話者検証システムの品質向上,b)短時間発話におけるシステム品質劣化の低減という2つの目標を達成するためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-14T13:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。