論文の概要: A GAN-based Approach for Mitigating Inference Attacks in Smart Home
Environment
- arxiv url: http://arxiv.org/abs/2011.06725v1
- Date: Fri, 13 Nov 2020 02:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:57:07.709055
- Title: A GAN-based Approach for Mitigating Inference Attacks in Smart Home
Environment
- Title(参考訳): GANによるスマートホーム環境における推論攻撃の軽減
- Authors: Olakunle Ibitoye, Ashraf Matrawy, and M. Omair Shafiq
- Abstract要約: 本研究では,スマートホーム利用者をスパイしている敵が,機械学習技術を用いてセンシティブな情報を推測する問題について検討する。
スマートホームにおけるプライバシー保護のためのGAN(Generative Adrial Network)に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.785123406103385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of smart, connected, always listening devices have
introduced significant privacy risks to users in a smart home environment.
Beyond the notable risk of eavesdropping, intruders can adopt machine learning
techniques to infer sensitive information from audio recordings on these
devices, resulting in a new dimension of privacy concerns and attack variables
to smart home users. Techniques such as sound masking and microphone jamming
have been effectively used to prevent eavesdroppers from listening in to
private conversations. In this study, we explore the problem of adversaries
spying on smart home users to infer sensitive information with the aid of
machine learning techniques. We then analyze the role of randomness in the
effectiveness of sound masking for mitigating sensitive information leakage. We
propose a Generative Adversarial Network (GAN) based approach for privacy
preservation in smart homes which generates random noise to distort the
unwanted machine learning-based inference. Our experimental results demonstrate
that GANs can be used to generate more effective sound masking noise signals
which exhibit more randomness and effectively mitigate deep learning-based
inference attacks while preserving the semantics of the audio samples.
- Abstract(参考訳): スマートでコネクテッドで常時リスニングするデバイスの普及は、スマートホーム環境でユーザに重大なプライバシーリスクをもたらした。
盗聴の顕著なリスク以外にも、侵入者は、これらのデバイス上の音声記録から機密情報を推測するために機械学習技術を採用することができる。
音のマスキングやマイクジャミングといった技術は、盗聴者がプライベートな会話を聴くのを防ぐために効果的に用いられてきた。
本研究では,スマートホームユーザをスパイして,機械学習技術を用いてセンシティブな情報を推測する問題について検討する。
次に,音響マスキングの有効性におけるランダム性の役割を分析し,機密情報の漏洩を緩和する。
本稿では,無作為なノイズを発生させ,不要な機械学習に基づく推論を歪ませる,スマートホームにおけるプライバシー保護のためのgan(generative adversarial network)アプローチを提案する。
実験の結果,音声サンプルの意味を維持しつつ,学習に基づく推論攻撃を効果的に軽減し,より効率的な音響マスキングノイズ信号を生成することができることがわかった。
関連論文リスト
- Exploring Audio Editing Features as User-Centric Privacy Defenses Against Large Language Model(LLM) Based Emotion Inference Attacks [0.0]
既存のプライバシ保護手法はユーザビリティとセキュリティを侵害し、現実的なシナリオでの採用を制限する。
本稿では,ユーザビリティを犠牲にすることなく,感情的プライバシを保護するために,親しみやすい音声編集技術,特にピッチとテンポ操作を活用する,ユーザ中心のアプローチを提案する。
3つの異なるデータセットを用いて実験を行い、ピッチとテンポの操作が感情データを効果的に難なくすることを示した。
論文 参考訳(メタデータ) (2025-01-30T20:07:44Z) - Safeguarding Voice Privacy: Harnessing Near-Ultrasonic Interference To Protect Against Unauthorized Audio Recording [0.0]
本稿では,音声認識アルゴリズム(ASR)の音場近傍からの干渉に対する感受性について検討する。
現代の音声アクティベートデバイスで使われている最も一般的なマイクロフォンでは、ほぼ超音波周波数を聴覚スペクトルに不注意に復調する致命的な脆弱性が露呈する。
本研究は,この脆弱性の悪用から発声システムを保護するために,堅牢な対策を開発する必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-04-07T00:49:19Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Adversarial Representation Learning for Robust Privacy Preservation in
Audio [11.409577482625053]
音響イベント検出システムは、ユーザーまたはその周辺に関する機密情報を不注意に明らかにすることができる。
本稿では,音声記録の表現を学習するための新しい逆学習法を提案する。
提案手法は,プライバシ対策を伴わないベースライン手法と,事前の逆行訓練法とを併用して評価する。
論文 参考訳(メタデータ) (2023-04-29T08:39:55Z) - SottoVoce: An Ultrasound Imaging-Based Silent Speech Interaction Using
Deep Neural Networks [18.968402215723]
ユーザの無声発話を検出するシステムを提案する。
提案システムは,ユーザの発話音声を使わずに発話内容を認識する。
また,音声認識の精度を向上させるために,ユーザが口頭の動きを調整できることも確認した。
論文 参考訳(メタデータ) (2023-03-03T07:46:35Z) - Privacy against Real-Time Speech Emotion Detection via Acoustic
Adversarial Evasion of Machine Learning [7.387631194438338]
DARE-GPは、音声の書き起こし関連部分を保存しながら、ユーザの感情情報を隠蔽する付加的なノイズを生成するソリューションである。
DARE-GPは、既存の作品と異なり、a) 音声の書き起こしを保護しながら、(b) 未確認のブラックボックスのSER分類器に対して、(b) 音の聞こえない発話をリアルタイムに保護し、(c) 声の書き起こしを現実的に音響的に保護する。
論文 参考訳(メタデータ) (2022-11-17T00:25:05Z) - Open-set Adversarial Defense with Clean-Adversarial Mutual Learning [93.25058425356694]
本稿では, オープンセット認識システムは, 対向サンプルに対して脆弱であることを示す。
これらの観測により,我々はオープンセット・ディフェンス(OSAD)機構の必要性を強調した。
本稿では,OSAD問題に対する解決策として,OSDN-CAML(Create-Adversarial Mutual Learning)を用いたオープンセット防衛ネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-12T02:13:55Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - An Accuracy-Lossless Perturbation Method for Defending Privacy Attacks
in Federated Learning [82.80836918594231]
フェデレーション学習は、生データではなく、局所的な勾配やパラメータを交換することで、トレーニングデータのプライバシを改善する。
敵は、局所勾配とパラメータを利用して、再構築とメンバーシップ推論攻撃を起動することで、局所的なトレーニングデータを取得することができる。
このようなプライバシ攻撃を防御するために、多くのノイズ摂動法が広く設計されている。
論文 参考訳(メタデータ) (2020-02-23T06:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。