論文の概要: DYSAN: Dynamically sanitizing motion sensor data against sensitive
inferences through adversarial networks
- arxiv url: http://arxiv.org/abs/2003.10325v2
- Date: Thu, 8 Oct 2020 13:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:39:53.055107
- Title: DYSAN: Dynamically sanitizing motion sensor data against sensitive
inferences through adversarial networks
- Title(参考訳): DYSAN: 敵ネットワークによる敏感な推論に対する運動センサデータの動的サニタイズ
- Authors: Claude Rosin Ngueveu (UQAM), Antoine Boutet (PRIVATICS), Carole
Frindel (CREATIS), S\'ebastien Gambs (UQAM), Th\'eo Jourdan (CREATIS,
PRIVATICS), Claude Rosin
- Abstract要約: DySanは、望ましくない機密推論に対してモーションセンサーデータを正当化するためのプライバシー保護フレームワークである。
複数のネットワークを競合的に学習することで、DySanは特定の機密属性の推論に対して動作データを衛生化するモデルを構築することができる。
実際のデータセットで行った実験では、DySanは活動認識の精度を3%減らしながら、性別推定を47%まで劇的に減らすことができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread adoption of the quantified self movement, an increasing
number of users rely on mobile applications to monitor their physical activity
through their smartphones. Granting to applications a direct access to sensor
data expose users to privacy risks. Indeed, usually these motion sensor data
are transmitted to analytics applications hosted on the cloud leveraging
machine learning models to provide feedback on their health to users. However,
nothing prevents the service provider to infer private and sensitive
information about a user such as health or demographic attributes.In this
paper, we present DySan, a privacy-preserving framework to sanitize motion
sensor data against unwanted sensitive inferences (i.e., improving privacy)
while limiting the loss of accuracy on the physical activity monitoring (i.e.,
maintaining data utility). To ensure a good trade-off between utility and
privacy, DySan leverages on the framework of Generative Adversarial Network
(GAN) to sanitize the sensor data. More precisely, by learning in a competitive
manner several networks, DySan is able to build models that sanitize motion
data against inferences on a specified sensitive attribute (e.g., gender) while
maintaining a high accuracy on activity recognition. In addition, DySan
dynamically selects the sanitizing model which maximize the privacy according
to the incoming data. Experiments conducted on real datasets demonstrate that
DySan can drasticallylimit the gender inference to 47% while only reducing the
accuracy of activity recognition by 3%.
- Abstract(参考訳): 定量化された自己運動が普及するにつれて、スマートフォンを通じて身体活動を監視するためにモバイルアプリケーションを利用するユーザーが増えている。
アプリケーションへのセンサデータへの直接アクセス許可は、ユーザのプライバシリスクを露呈する。
実際、これらのモーションセンサーデータは、通常、クラウドにホストされている分析アプリケーションに送信され、機械学習モデルを利用して、ユーザに健康に関するフィードバックを提供する。
しかし、サービスプロバイダが、健康や人口統計などのユーザに関するプライベートで機密性の高い情報を推測することを妨げるものはない。本稿では、身体活動監視(すなわち、データユーティリティ)における精度の喪失を抑えつつ、不必要な機密性推論(すなわち、プライバシーの改善)に対して、モーションセンサデータを正当化するためのプライバシー保護フレームワークであるDySanを提案する。
ユーティリティとプライバシのトレードオフを確実にするため、DySanはGAN(Generative Adversarial Network)のフレームワークを活用して、センサデータを衛生する。
より正確には、いくつかのネットワークを競合的に学習することで、DySanは特定の機密属性(例えば性別)の推論に対して動作データを正当化するモデルを構築することができる。
さらに、DySanは受信データに応じてプライバシーを最大化する衛生モデルを動的に選択する。
実際のデータセットで行った実験では、DySanは活動認識の精度を3%減らしながら、性別推定を47%まで劇的に減らすことができた。
関連論文リスト
- Generating Synthetic Health Sensor Data for Privacy-Preserving Wearable
Stress Detection [1.529040771430363]
ストレスの瞬間に関連するマルチセンサ型スマートウォッチのヘルスリーダーのプライバシ・アウェア・シンセサイザー化について紹介する。
我々の手法はGAN(Generative Adversarial Networks)による合成シーケンスデータの生成を伴う。
非プライベート (0.45% F1) とプライベート (11.90-15.48% F1) のトレーニングシナリオの両方において、モデル性能の改善を観察する。
論文 参考訳(メタデータ) (2024-01-24T09:44:57Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Towards Blockchain-Assisted Privacy-Aware Data Sharing For Edge
Intelligence: A Smart Healthcare Perspective [19.208368632576153]
リンク攻撃はプライバシードメインにおける支配的な攻撃の一種である。
敵は 健康データを偽装するために 毒殺攻撃を仕掛ける 誤診や 身体的損傷までも 引き起こす
個人の健康データを保護するために,ユーザ間の信頼度に基づく個人差分プライバシモデルを提案する。
論文 参考訳(メタデータ) (2023-06-29T02:06:04Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI
models in medical imaging [49.588766426499184]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Decouple-and-Sample: Protecting sensitive information in task agnostic
data release [17.398889291769986]
sanitizerはセキュアでタスクに依存しないデータリリースのためのフレームワークである。
機密情報をプライベートに合成できれば、より優れたプライバシーとユーティリティのトレードオフが達成できることを示す。
論文 参考訳(メタデータ) (2022-03-17T19:15:33Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z) - Decentralized Privacy-Preserving Proximity Tracing [50.27258414960402]
DP3TはSARS-CoV-2の普及を遅らせるための技術基盤を提供する。
システムは、個人やコミュニティのプライバシーとセキュリティのリスクを最小限にすることを目的としている。
論文 参考訳(メタデータ) (2020-05-25T12:32:02Z) - E-Health Sensitive Data Dissemination Exploiting Trust and Mobility of
Users [5.104919259370318]
E-Healthサービスは大量の機密データを処理し、信頼性とプライバシーを必要とする。
本稿では,これらの課題に対処するために,社会的信頼と関心のコミュニティを活用するシステムであるSTEALTHを提案する。
STEALTHは170ミリ秒のレイテンシを持つ機密データにアクセスする際の信頼性の97.14%、緊急時の可用性の最大100%を達成している。
論文 参考訳(メタデータ) (2020-05-14T23:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。