論文の概要: Privacy in Multimodal Federated Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2305.12134v1
- Date: Sat, 20 May 2023 07:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 00:27:39.872422
- Title: Privacy in Multimodal Federated Human Activity Recognition
- Title(参考訳): マルチモーダルフェデレーション型ヒューマンアクティビティ認識におけるプライバシ
- Authors: Alex Iacob, Pedro P. B. Gusm\~ao, Nicholas D. Lane, Armand K. Koupai,
Mohammud J. Bocus, Ra\'ul Santos-Rodr\'iguez, Robert J. Piechocki, Ryan
McConville
- Abstract要約: 本研究は, ユーザ, 環境, センサレベルでのHAR(Federated Human Activity Recognition)におけるプライバシの影響について検討する。
HARにおけるFLの性能は、FLシステムのプライバシレベルに依存していることを示す。
本研究では,HARにおける受動的センシング手法の倫理的活用には,このようなプライバシが不可欠であるため,クライアントが一般FLモデルとグループレベルのモデルの両方をモダリティ毎に相互に訓練するシステムを実装する。
- 参考スコア(独自算出の注目度): 8.301708819864974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) training data is often privacy-sensitive or
held by non-cooperative entities. Federated Learning (FL) addresses such
concerns by training ML models on edge clients. This work studies the impact of
privacy in federated HAR at a user, environment, and sensor level. We show that
the performance of FL for HAR depends on the assumed privacy level of the FL
system and primarily upon the colocation of data from different sensors. By
avoiding data sharing and assuming privacy at the human or environment level,
as prior works have done, the accuracy decreases by 5-7%. However, extending
this to the modality level and strictly separating sensor data between multiple
clients may decrease the accuracy by 19-42%. As this form of privacy is
necessary for the ethical utilisation of passive sensing methods in HAR, we
implement a system where clients mutually train both a general FL model and a
group-level one per modality. Our evaluation shows that this method leads to
only a 7-13% decrease in accuracy, making it possible to build HAR systems with
diverse hardware.
- Abstract(参考訳): HAR(Human Activity Recognition)トレーニングデータは、プライバシに敏感な場合が多い。
Federated Learning (FL)は、エッジクライアント上でMLモデルをトレーニングすることで、このような懸念に対処する。
本研究は,ユーザ,環境,センサレベルでのフェデレーションHARにおけるプライバシの影響について検討する。
HARにおけるFLの性能は、FLシステムの仮定されたプライバシレベルと、主に異なるセンサからのデータのコロケーションに依存する。
データの共有を避け、人間や環境レベルでのプライバシーを仮定することで、以前の作業と同様に精度は5~7%低下する。
しかし、これをモダリティレベルに拡張し、複数のクライアント間でセンサデータを厳密に分離することで、精度を19-42%削減することができる。
本研究では,HARにおける受動的センシング手法の倫理的活用には,このようなプライバシが不可欠であるため,一般FLモデルとグループレベルの手法を相互に訓練するシステムを実装する。
評価の結果,本手法は精度が7~13%低下し,多様なハードウェアでHARシステムを構築することができることがわかった。
関連論文リスト
- CDFL: Efficient Federated Human Activity Recognition using Contrastive Learning and Deep Clustering [12.472038137777474]
HAR(Human Activity Recognition)は、多様なセンサーからのデータを介し、人間の行動の自動化とインテリジェントな識別に不可欠である。
中央サーバー上のデータを集約し、集中処理を行うことによる従来の機械学習アプローチは、メモリ集約であり、プライバシの懸念を高める。
本研究は,画像ベースHARのための効率的なフェデレーション学習フレームワークCDFLを提案する。
論文 参考訳(メタデータ) (2024-07-17T03:17:53Z) - Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Privacy Assessment of Federated Learning using Private Personalized
Layers [0.9023847175654603]
Federated Learning(FL)は、データを共有することなく、複数の参加者にまたがって学習モデルをトレーニングするコラボレーティブスキームである。
プライベートなパーソナライズされたレイヤを用いてFLスキームの実用性とプライバシのトレードオフを定量化する。
論文 参考訳(メタデータ) (2021-06-15T11:40:16Z) - Personalized Semi-Supervised Federated Learning for Human Activity
Recognition [1.9014535120129343]
人間活動認識のための新しいハイブリッド手法であるFedHARを提案する。
FedHARは半教師付きとフェデレーション学習を組み合わせたものです。
我々は、FedHARが最新のFL監督アプローチに類似した認識率とパーソナライゼーション能力に達することを示しています。
論文 参考訳(メタデータ) (2021-04-15T10:24:18Z) - Federated Learning with Local Differential Privacy: Trade-offs between
Privacy, Utility, and Communication [22.171647103023773]
フェデレートラーニング(FL)は、分散された構造のため、大量のデータをプライベートにトレーニングすることができる。
SGDを用いたFLモデルにおいて,ユーザデータのローカル差分プライバシー(LDP)を維持するためのガウス的メカニズムを検討する。
その結果,既存のプライバシ会計法と比較して,実用性が大きく,伝送速度も低いことが保証された。
論文 参考訳(メタデータ) (2021-02-09T10:04:18Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。