論文の概要: Privacy on the Fly: A Predictive Adversarial Transformation Network for Mobile Sensor Data
- arxiv url: http://arxiv.org/abs/2511.07242v3
- Date: Tue, 18 Nov 2025 14:23:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.48466
- Title: Privacy on the Fly: A Predictive Adversarial Transformation Network for Mobile Sensor Data
- Title(参考訳): プライバシオン・ザ・フライ:モバイルセンサデータの予測逆変換ネットワーク
- Authors: Tianle Song, Chenhao Lin, Yang Cao, Zhengyu Zhao, Jiahao Sun, Chong Zhang, Le Yang, Chao Shen,
- Abstract要約: 本稿では,歴史的信号を利用したリアルタイムなプライバシ保護フレームワークを提案し,対人的摂動を積極的に生成する。
2つのデータセットの実験では、PATNはプライバシ推論モデルのパフォーマンスを著しく低下させる。
- 参考スコア(独自算出の注目度): 32.36355095752335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile motion sensors such as accelerometers and gyroscopes are now ubiquitously accessible by third-party apps via standard APIs. While enabling rich functionalities like activity recognition and step counting, this openness has also enabled unregulated inference of sensitive user traits, such as gender, age, and even identity, without user consent. Existing privacy-preserving techniques, such as GAN-based obfuscation or differential privacy, typically require access to the full input sequence, introducing latency that is incompatible with real-time scenarios. Worse, they tend to distort temporal and semantic patterns, degrading the utility of the data for benign tasks like activity recognition. To address these limitations, we propose the Predictive Adversarial Transformation Network (PATN), a real-time privacy-preserving framework that leverages historical signals to generate adversarial perturbations proactively. The perturbations are applied immediately upon data acquisition, enabling continuous protection without disrupting application functionality. Experiments on two datasets demonstrate that PATN substantially degrades the performance of privacy inference models, achieving Attack Success Rate (ASR) of 40.11% and 44.65% (reducing inference accuracy to near-random) and increasing the Equal Error Rate (EER) from 8.30% and 7.56% to 41.65% and 46.22%. On ASR, PATN outperforms baseline methods by 16.16% and 31.96%, respectively.
- Abstract(参考訳): 加速度計やジャイロスコープなどのモバイルモーションセンサーは、標準APIを介して、サードパーティアプリからユビキタスにアクセスできるようになった。
アクティビティ認識やステップカウントといったリッチな機能を実現する一方で、このオープン性は、性別、年齢、アイデンティティといった機密性の高いユーザ特性を、ユーザの同意なしに不規則に推測することを可能にする。
GANベースの難読化や差分プライバシーといった既存のプライバシ保護技術は、通常、完全な入力シーケンスへのアクセスを必要とし、リアルタイムシナリオと互換性のないレイテンシを導入する。
さらに悪いことに、それらは時間的および意味的なパターンを歪ませ、アクティビティ認識のような良質なタスクにデータの有用性を低下させる傾向があります。
これらの制約に対処するために,歴史的信号を利用したリアルタイムプライバシ保存フレームワークである予測逆変換ネットワーク(PATN)を提案する。
摂動はデータ取得の直後に適用され、アプリケーションの機能を中断することなく継続的な保護を可能にする。
2つのデータセットの実験では、PATNはプライバシ推論モデルの性能を著しく低下させ、40.11%と44.65%(推定精度をほぼランダムに還元する)のアタック成功率(ASR)を達成し、EER(Equal Error Rate)を8.30%から7.56%から41.65%、46.22%に増やした。
ASRでは、PATNはベースライン法をそれぞれ16.16%、31.96%で上回っている。
関連論文リスト
- Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - DELTA: Variational Disentangled Learning for Privacy-Preserving Data Reprogramming [20.87548031005583]
DELTAは二相変分不整合型生成学習フレームワークである。
フェーズ1では、プライバシの推論性を考慮せずに、ポリシ誘導型強化学習を使用して、下流タスクユーティリティによる特徴変換を検出する。
フェーズIIでは、LSTM seq2seqエンコーダ(英語版)エンコーダ(英語版)を用いて、ユーティリティプライバシの非有線空間設計と、プライバシ信号を抑制するために対角方向の非有線空間正規化を行う。
論文 参考訳(メタデータ) (2025-08-31T04:18:42Z) - Benchmarking Fraud Detectors on Private Graph Data [70.4654745317714]
現在、多くの種類の不正は、グラフ上で動く自動検出アルゴリズムによって部分的に管理されている。
データ保有者が不正検知器の開発を第三者にアウトソースしようとするシナリオを考察する。
サードパーティは、不正検出をデータ保持者に送信し、これらのアルゴリズムをプライベートデータセットで評価し、その結果を公表する。
本システムに対する現実的なプライバシ攻撃を提案し,評価結果のみに基づいて個人データの匿名化を可能にする。
論文 参考訳(メタデータ) (2025-07-30T03:20:15Z) - Privacy-aware IoT Fall Detection Services For Aging in Place [1.4061979259370276]
転倒の検出は、2050年までに210億に達すると予測されている高齢者を養うために重要である。
転倒を正確に検出し,高齢者の自立的かつ安全に生活を支援するための新しいIoTベースの転倒検出・アズ・ア・サービスフレームワークを提案する。
我々は、UWB(Ultra-wideband)レーダーセンサーをIoTヘルスセンシングサービスとして活用し、プライバシーと最小限の侵入を確実にするサービス指向アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-06-18T03:28:07Z) - DP-SMOTE: Integrating Differential Privacy and Oversampling Technique to Preserve Privacy in Smart Homes [0.0]
本稿では、差分プライバシ(DP)に基づいて、サービスプロバイダにデータをセキュアに共有するためのロバストな方法を提案する。
このアプローチは、Synthetic Minority Oversampling Technique (SMOTe)を導入し、ガウスノイズをシームレスに統合して合成データを生成する。
プライバシや正確性、リコール、F測定のメトリクスを保護する上で、強力なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2025-04-29T14:50:50Z) - Dual Utilization of Perturbation for Stream Data Publication under Local Differential Privacy [10.07017446059039]
ローカルディファレンシャルプライバシ(LDP)が有望な標準として登場した。
ストリームデータにLDPを適用することは、大きなあるいは無限の値を含む場合が多いため、大きな課題となる。
本稿では、電流摂動結果を用いてその後の摂動過程を校正する反復摂動IPP法を提案する。
これら3つのアルゴリズムが差分プライバシーを$w$-eventで満たし、実用性を大幅に向上することを証明する。
論文 参考訳(メタデータ) (2025-04-21T09:51:18Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Effect of Data Degradation on Motion Re-Identification [16.062009131216467]
本研究では,信号劣化が識別性に及ぼす影響について検討し,特に付加雑音,フレームレートの低減,精度の低下,データの次元性の低下について検討した。
実験により,これらの劣化に対して,最先端の識別攻撃は依然としてほぼ完全であることがわかった。
論文 参考訳(メタデータ) (2024-07-25T20:23:32Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。