論文の概要: Private Data Leakage in Federated Human Activity Recognition for Wearable Healthcare Devices
- arxiv url: http://arxiv.org/abs/2405.10979v1
- Date: Tue, 14 May 2024 07:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 19:56:17.877063
- Title: Private Data Leakage in Federated Human Activity Recognition for Wearable Healthcare Devices
- Title(参考訳): ウェアラブル医療機器におけるフェデレーションヒト活動認識における個人データ漏洩
- Authors: Kongyang Chen, Dongping Zhang, Bing Mi,
- Abstract要約: ウェアラブルデバイスユーザとパラメータサーバで構成される,連合型学習アーキテクチャについて検討する。
本稿では,異なるクライアントデータ間でのモデル一般化の差異を利用した,悪意のあるサーバに基づくメンバシップ推論攻撃について検討する。
- 参考スコア(独自算出の注目度): 1.0923877073891446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wearable wristband or watch can be utilized for health monitoring, such as determining the user's activity status based on behavior and providing reasonable exercise recommendations. Obviously, the individual data perception and local computing capabilities of a single wearable device are limited, making it difficult to train a robust user behavior recognition model. Typically, joint modeling requires the collaboration of multiple wearable devices. An appropriate research approach is Federated Human Activity Recognition (HAR), which can train a global model without uploading users' local exercise data. Nevertheless, recent studies indicate that federated learning still faces serious data security and privacy issues. To the best of our knowledge, there is no existing research on membership information leakage in Federated HAR. Therefore, our study aims to investigate the joint modeling process of multiple wearable devices for user behavior recognition, with a focus on analyzing the privacy leakage issues of wearable data. In our system, we consider a federated learning architecture consisting of $N$ wearable device users and a parameter server. The parameter server distributes the initial model to each user, who independently perceives their motion sensor data, conducts local model training, and uploads it to the server. The server aggregates these local models until convergence. In the federated learning architecture, the server may be curious and seek to obtain privacy information about relevant users from the model parameters. Hence, we consider membership inference attacks based on malicious servers, which exploit differences in model generalization across different client data. Through experimentation deployed on five publicly available HAR datasets, we demonstrate that the accuracy of malicious server membership inference reaches 92\%.
- Abstract(参考訳): ウェアラブルリストバンドや腕時計は、行動に基づいてユーザの活動状況を決定することや適切なエクササイズレコメンデーションを提供するなど、健康モニタリングに利用することができる。
もちろん、単一のウェアラブルデバイスの個々のデータ認識とローカルコンピューティング能力は制限されており、堅牢なユーザ行動認識モデルをトレーニングすることは困難である。
通常、ジョイントモデリングは複数のウェアラブルデバイスのコラボレーションを必要とする。
適切な研究アプローチとしてフェデレーションヒューマンアクティビティ認識(HAR)がある。これは、ユーザのローカルエクササイズデータをアップロードすることなく、グローバルモデルをトレーニングすることができる。
しかし、最近の研究は、フェデレートドラーニングが依然として深刻なデータセキュリティとプライバシーの問題に直面していることを示している。
我々の知る限り、フェデレートHARには会員情報漏洩に関する研究は存在しない。
そこで本研究では,ユーザ行動認識のための複数のウェアラブルデバイスの共同モデリングプロセスについて検討し,ウェアラブルデータのプライバシー漏洩問題を分析することを目的とした。
本システムでは,ウェアラブルデバイスユーザとパラメータサーバからなるフェデレーション学習アーキテクチャについて検討する。
パラメータサーバは、動作センサデータを独立して知覚し、ローカルモデルトレーニングを行い、サーバにアップロードするユーザ毎に初期モデルを配布する。
サーバは収束するまでこれらのローカルモデルを集約する。
フェデレートされた学習アーキテクチャでは、サーバは興味を持ち、モデルパラメータから関連するユーザに関するプライバシー情報を取得しようとするかもしれない。
そこで我々は,異なるクライアントデータ間でのモデル一般化の差異を生かした,悪意のあるサーバに基づくメンバシップ推論攻撃を検討する。
公開されている5つのHARデータセットにデプロイされた実験により、悪意のあるサーバメンバシップ推定の精度が92\%に達することを示した。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Opportunistic Federated Learning: An Exploration of Egocentric
Collaboration for Pervasive Computing Applications [20.61034787249924]
我々は、異なるユーザに属する個々のデバイスが堅牢なモデルを学ぶための新しいアプローチ、機会論的フェデレーションラーニングを定義する。
本稿では,このようなアプローチの実現可能性と限界を考察し,出会い型ペアワイド協調学習を支援する枠組みを策定する。
論文 参考訳(メタデータ) (2021-03-24T15:30:21Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Federated Learning with Heterogeneous Labels and Models for Mobile
Activity Monitoring [0.7106986689736827]
デバイス上でのフェデレーション学習は、分散的で協調的な機械学習に効果的なアプローチであることが証明されている。
本稿では,複数の活動にまたがる重なり合う情報ゲインを利用したラベルに基づくアグリゲーションのためのフレームワークを提案する。
Raspberry Pi 2上のHeterogeneity Human Activity Recognition (HHAR)データセットによる経験的評価は、決定論的精度が少なくとも11.01%向上したことを示している。
論文 参考訳(メタデータ) (2020-12-04T11:44:17Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。