論文の概要: Glitch in Time: Exploiting Temporal Misalignment of IMU For Eavesdropping
- arxiv url: http://arxiv.org/abs/2409.16438v1
- Date: Tue, 24 Sep 2024 20:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 08:21:10.158610
- Title: Glitch in Time: Exploiting Temporal Misalignment of IMU For Eavesdropping
- Title(参考訳): 時間のひらめき:盗聴のためのIMUの時間的ミスを爆発させる
- Authors: Ahmed Najeeb, Abdul Rafay, Naveed Anwar Bhatti, Muhammad Hamad Alizai,
- Abstract要約: 慣性測定ユニット(IMU)は、音響盗聴攻撃に対して脆弱である。
Googleは、IMUへの許可なしアクセスに対して200Hzのレート制限を課し、このようなサイドチャネル攻撃を中和することを目指している。
本研究は,これらの保護を回避する新たなエクスプロイトであるSTAGを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing use of voice assistants and related applications has raised significant concerns about the security of Inertial Measurement Units (IMUs) in smartphones. These devices are vulnerable to acoustic eavesdropping attacks, jeopardizing user privacy. In response, Google imposed a rate limit of 200 Hz on permission-free access to IMUs, aiming to neutralize such side-channel attacks. Our research introduces a novel exploit, STAG, which circumvents these protections. It induces a temporal misalignment between the gyroscope and accelerometer, cleverly combining their data to resample at higher rates and reviving the potential for eavesdropping attacks previously curtailed by Google's security enhancements. Compared to prior methods, STAG achieves an 83.4% reduction in word error rate, highlighting its effectiveness in exploiting IMU data under restricted access and emphasizing the persistent security risks associated with these sensors.
- Abstract(参考訳): 音声アシスタントや関連アプリケーションの利用が増加し、スマートフォンにおける慣性計測ユニット(IMU)のセキュリティに対する懸念が高まっている。
これらのデバイスは、アコースティックな盗聴攻撃に弱いため、ユーザーのプライバシーを脅かす。
これに対してGoogleは、IMUへの許可なしアクセスに対して200Hzのレート制限を課した。
本研究は,これらの保護を回避する新たなエクスプロイトであるSTAGを紹介する。
ジャイロスコープと加速度計の時間的ずれを誘発し、データを巧みに組み合わせて高いレートでサンプリングし、以前Googleのセキュリティ強化で制限されていた盗聴攻撃の可能性を復活させる。
従来の方法と比較して、STAGはワードエラー率を83.4%削減し、制限されたアクセス下でIMUデータを利用する効果を強調し、これらのセンサーに関連する永続的なセキュリティリスクを強調した。
関連論文リスト
- Enhancing TinyML Security: Study of Adversarial Attack Transferability [0.35998666903987897]
この研究は、リソース制約の組込みハードウェア上でAIモデルの敵対的脆弱性を掘り下げるものである。
以上の結果から,強力なホストマシンからの敵攻撃は,ESP32やRaspberry Piなど,より小型で安全性の低いデバイスに転送される可能性が示唆された。
このことは、敵対的攻撃が小さなデバイスに拡張され、脆弱性が強調され、TinyMLデプロイメントにおける強化されたセキュリティ対策の必要性を強調していることを示している。
論文 参考訳(メタデータ) (2024-07-16T10:55:25Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - Safeguarding Voice Privacy: Harnessing Near-Ultrasonic Interference To Protect Against Unauthorized Audio Recording [0.0]
本稿では,音声認識アルゴリズム(ASR)の音場近傍からの干渉に対する感受性について検討する。
現代の音声アクティベートデバイスで使われている最も一般的なマイクロフォンでは、ほぼ超音波周波数を聴覚スペクトルに不注意に復調する致命的な脆弱性が露呈する。
本研究は,この脆弱性の悪用から発声システムを保護するために,堅牢な対策を開発する必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-04-07T00:49:19Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Unprotected 4G/5G Control Procedures at Low Layers Considered Dangerous [4.235733335401408]
セルラー標準の複雑さと高い層間操作の複雑さについて検討する。
現在の細胞系は情報漏洩による新たな受動的攻撃の影響を受けやすいことが判明した。
UEでRFフロントエンドを無効にすることで、ユーザのスループットを低下させるアクティブアタックを識別する。
論文 参考訳(メタデータ) (2024-03-11T13:42:05Z) - GaitGuard: Towards Private Gait in Mixed Reality [3.2392550445029396]
GaitGuardは、AR/MRデバイスのカメラビュー内の歩行機能のプライバシを保護するために設計された最初のリアルタイムフレームワークである。
GaitGuardは識別のリスクを最大68%削減し、最小遅延は118.77msである。
論文 参考訳(メタデータ) (2023-12-07T17:42:04Z) - An Experimental Study on Private Aggregation of Teacher Ensemble
Learning for End-to-End Speech Recognition [51.232523987916636]
差分プライバシー(DP)は、プライバシーデータにノイズのある歪みを課すことで、深層モデルのトレーニングに使用されるユーザー情報を保護するための1つのデータ保護手段である。
本研究では、PATE学習を動的パターン、すなわち音声を扱うように拡張し、音響データの漏洩を避けるために、ASRに関する最初の実験を行う。
論文 参考訳(メタデータ) (2022-10-11T16:55:54Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。