論文の概要: You Are How You Walk: Quantifying Privacy Risks in Step Count Data
- arxiv url: http://arxiv.org/abs/2308.04933v1
- Date: Wed, 9 Aug 2023 13:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:42:56.241343
- Title: You Are How You Walk: Quantifying Privacy Risks in Step Count Data
- Title(参考訳): 歩数データでプライバシーリスクを定量化
- Authors: Bartlomiej Surma and Tahleen Rahman, Monique Breteler, Michael Backes
and Yang Zhang
- Abstract要約: ステップカウントデータから生じるプライバシーリスクの定量化に関する最初の体系的研究を行う。
本稿では,性別,年齢,教育,時間的リンク性などの属性推定を含む2つの攻撃を提案する。
われわれの結果は、将来ウェアラブルデバイスのためのプライバシー保護のエコシステムを導出するための一歩だと信じている。
- 参考スコア(独自算出の注目度): 17.157398766367265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wearable devices have gained huge popularity in today's world. These devices
collect large-scale health data from their users, such as heart rate and step
count data, that is privacy sensitive, however it has not yet received the
necessary attention in the academia. In this paper, we perform the first
systematic study on quantifying privacy risks stemming from step count data. In
particular, we propose two attacks including attribute inference for gender,
age and education and temporal linkability. We demonstrate the severity of the
privacy attacks by performing extensive evaluation on a real life dataset and
derive key insights. We believe our results can serve as a step stone for
deriving a privacy-preserving ecosystem for wearable devices in the future.
- Abstract(参考訳): ウェアラブルデバイスは今日の世界で大きな人気を集めています。
これらのデバイスは、ユーザーの心拍数や歩数など、プライバシーに敏感な大規模な健康データを収集するが、アカデミアではまだ必要な注意を払われていない。
本稿では,ステップカウントデータから生じるプライバシーリスクの定量化に関する最初の体系的研究を行う。
特に,性別の属性推定,年齢・教育,時間的リンク性などの2つの攻撃を提案する。
実生活のデータセットを広範囲に評価し,重要な洞察を得ることで,プライバシ攻撃の深刻さを実証する。
われわれの結果は、将来ウェアラブルデバイスのためのプライバシー保護エコシステムを導出するための一歩になると考えている。
関連論文リスト
- Where you go is who you are -- A study on machine learning based
semantic privacy attacks [3.259843027596329]
本稿では,2つの攻撃シナリオ,すなわち位置分類とユーザプロファイリングを体系的に分析する。
Foursquareのデータセットと追跡データの実験は、高品質な空間情報の悪用の可能性を示している。
以上の結果から,追跡データや空間文脈データのデータベース化のリスクが指摘される。
論文 参考訳(メタデータ) (2023-10-26T17:56:50Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Slice it up: Unmasking User Identities in Smartwatch Health Data [1.4797368693230672]
本稿では、時系列健康データに対する類似性に基づく動的時間ワープ(DTW)再識別攻撃のための新しいフレームワークを提案する。
私たちの攻撃はトレーニングデータとは独立しており、1つのCPUコア上で1万の被験者に対して約2分で類似性ランキングを計算します。
論文 参考訳(メタデータ) (2023-08-16T12:14:50Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Evaluating Privacy-Preserving Machine Learning in Critical
Infrastructures: A Case Study on Time-Series Classification [5.607917328636864]
モデルもデータも、センシティブな情報を抽出するのに使用しないことを確実にすることは、重要なことです。
さまざまな安全クリティカルなユースケース(主に時系列データに依存している)は、現在、プライバシーに関する考慮事項で不足している。
時系列データに適用性に関するいくつかのプライバシー保護手法を評価することにより、深層学習における暗号化の非効率性を検証した。
論文 参考訳(メタデータ) (2021-11-29T12:28:22Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Security and Privacy Preserving Deep Learning [2.322461721824713]
ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題を提示している。
写真や音声録音などの、個人的かつ高感度なデータは、収集する企業によって無期限に保持される。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2020-06-23T01:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。