論文の概要: Private Data Leakage in Federated Human Activity Recognition for Wearable Healthcare Devices
- arxiv url: http://arxiv.org/abs/2405.10979v2
- Date: Thu, 20 Jun 2024 08:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 03:49:28.287075
- Title: Private Data Leakage in Federated Human Activity Recognition for Wearable Healthcare Devices
- Title(参考訳): ウェアラブル医療機器におけるフェデレーションヒト活動認識における個人データ漏洩
- Authors: Kongyang Chen, Dongping Zhang, Sijia Guan, Bing Mi, Jiaxing Shen, Guoqing Wang,
- Abstract要約: 複数のウェアラブルデバイスにまたがるフェデレーションされたユーザ行動認識モデルにおけるプライバシー漏洩問題について検討する。
提案システムでは,N$のウェアラブルデバイスユーザとパラメータサーバで構成されるフェデレーション学習アーキテクチャを提案する。
5つの公開HARデータセットで実施された実験では、悪意のあるサーバベースのメンバシップ推論の精度が92%であることが示されている。
- 参考スコア(独自算出の注目度): 6.422056036165425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wearable data serves various health monitoring purposes, such as determining activity states based on user behavior and providing tailored exercise recommendations. However, the individual data perception and computational capabilities of wearable devices are limited, often necessitating the joint training of models across multiple devices. Federated Human Activity Recognition (HAR) presents a viable research avenue, allowing for global model training without the need to upload users' local activity data. Nonetheless, recent studies have revealed significant privacy concerns persisting within federated learning frameworks. To address this gap, we focus on investigating privacy leakage issues within federated user behavior recognition modeling across multiple wearable devices. Our proposed system entails a federated learning architecture comprising $N$ wearable device users and a parameter server, which may exhibit curiosity in extracting sensitive user information from model parameters. Consequently, we consider a membership inference attack based on a malicious server, leveraging differences in model generalization across client data. Experimentation conducted on five publicly available HAR datasets demonstrates an accuracy rate of 92\% for malicious server-based membership inference. Our study provides preliminary evidence of substantial privacy risks associated with federated training across multiple wearable devices, offering a novel research perspective within this domain.
- Abstract(参考訳): ウェアラブルデータは、ユーザの行動に基づいて活動状態を決定することや、カスタマイズされたエクササイズレコメンデーションの提供など、さまざまな健康モニタリング目的を提供する。
しかし、ウェアラブルデバイスの個々のデータ認識と計算能力は限られており、複数のデバイスにわたるモデルの共同トレーニングを必要とすることが多い。
Federated Human Activity Recognition (HAR)は、ユーザのローカルなアクティビティデータをアップロードすることなく、グローバルなモデルトレーニングを可能にする、実行可能な研究の道を示す。
それにもかかわらず、最近の研究では、フェデレートされた学習フレームワーク内で持続する重要なプライバシー上の懸念が明らかにされている。
このギャップに対処するため、複数のウェアラブルデバイスにまたがるフェデレーションされたユーザ行動認識モデルにおけるプライバシー漏洩問題の調査に焦点をあてる。
提案システムは,N$のウェアラブルデバイスユーザとパラメータサーバから構成されるフェデレーション学習アーキテクチャを包含し,モデルパラメータからセンシティブなユーザ情報を抽出する好奇心を示す。
その結果、悪意のあるサーバをベースとしたメンバシップ推論攻撃を考慮し、クライアントデータ間のモデル一般化の相違を生かした。
5つの公開HARデータセットで実施された実験では、悪意のあるサーバベースのメンバシップ推論の精度が92\%であることが示されている。
本研究は,複数のウェアラブルデバイスにまたがるフェデレーショントレーニングに関連する,実質的なプライバシリスクの予備的証拠を提供し,本領域における新たな研究視点を提供する。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Opportunistic Federated Learning: An Exploration of Egocentric
Collaboration for Pervasive Computing Applications [20.61034787249924]
我々は、異なるユーザに属する個々のデバイスが堅牢なモデルを学ぶための新しいアプローチ、機会論的フェデレーションラーニングを定義する。
本稿では,このようなアプローチの実現可能性と限界を考察し,出会い型ペアワイド協調学習を支援する枠組みを策定する。
論文 参考訳(メタデータ) (2021-03-24T15:30:21Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Federated Learning with Heterogeneous Labels and Models for Mobile
Activity Monitoring [0.7106986689736827]
デバイス上でのフェデレーション学習は、分散的で協調的な機械学習に効果的なアプローチであることが証明されている。
本稿では,複数の活動にまたがる重なり合う情報ゲインを利用したラベルに基づくアグリゲーションのためのフレームワークを提案する。
Raspberry Pi 2上のHeterogeneity Human Activity Recognition (HHAR)データセットによる経験的評価は、決定論的精度が少なくとも11.01%向上したことを示している。
論文 参考訳(メタデータ) (2020-12-04T11:44:17Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。