論文の概要: Privacy-Preserving Learning of Human Activity Predictors in Smart
Environments
- arxiv url: http://arxiv.org/abs/2101.06564v1
- Date: Sun, 17 Jan 2021 01:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:12:51.963435
- Title: Privacy-Preserving Learning of Human Activity Predictors in Smart
Environments
- Title(参考訳): スマート環境における行動予測器のプライバシー保護学習
- Authors: Sharare Zehtabian, Siavash Khodadadeh, Ladislau B\"ol\"oni and Damla
Turgut
- Abstract要約: 我々は、最先端のディープニューラルネットワークに基づく手法を用いて、予測された人間の活動モデルを学ぶ。
我々の研究の新たな側面は、学習者が利用できるデータの時間的進化と、利用者が共有するデータを注意深く追跡することである。
- 参考スコア(独自算出の注目度): 5.981641988736108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The daily activities performed by a disabled or elderly person can be
monitored by a smart environment, and the acquired data can be used to learn a
predictive model of user behavior. To speed up the learning, several
researchers designed collaborative learning systems that use data from multiple
users. However, disclosing the daily activities of an elderly or disabled user
raises privacy concerns. In this paper, we use state-of-the-art deep neural
network-based techniques to learn predictive human activity models in the
local, centralized, and federated learning settings. A novel aspect of our work
is that we carefully track the temporal evolution of the data available to the
learner and the data shared by the user. In contrast to previous work where
users shared all their data with the centralized learner, we consider users
that aim to preserve their privacy. Thus, they choose between approaches in
order to achieve their goals of predictive accuracy while minimizing the shared
data. To help users make decisions before disclosing any data, we use machine
learning to predict the degree to which a user would benefit from collaborative
learning. We validate our approaches on real-world data.
- Abstract(参考訳): 障害者や高齢者が行う日常活動は、スマート環境によって監視することができ、取得したデータは、ユーザの行動の予測モデルを学ぶために使用することができる。
学習を高速化するため、複数の研究者が複数のユーザーのデータを使用する協調学習システムを設計した。
しかし、高齢者や障害者の日常活動の開示はプライバシー上の懸念を生じさせる。
本稿では,最先端のディープニューラルネットワークに基づく手法を用いて,局所的,集中的,連合的な学習環境における人間の活動モデルを予測する。
我々の研究の新たな側面は、学習者が利用できるデータの時間的進化と、利用者が共有するデータを注意深く追跡することである。
ユーザがすべてのデータを集中学習者と共有する以前の作業とは対照的に,プライバシの保護を目的としたユーザも検討する。
したがって、共有データを最小化しながら予測精度の目標を達成するために、それぞれのアプローチを選択する。
ユーザがデータを開示する前に決定を下すのを助けるために、機械学習を使用して、ユーザが協調学習の恩恵を受ける程度を予測する。
実世界のデータに対するアプローチを検証する。
関連論文リスト
- Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Free Lunch for Privacy Preserving Distributed Graph Learning [1.8292714902548342]
分散グラフ学習とグラフベース機械学習のための新しいプライバシ参照フレームワークを提案する。
本フレームワークは,生データの本来の構造特性を保ちながら,実際の特徴を必要とせずに,特徴と距離を学習することを目的としている。
論文 参考訳(メタデータ) (2023-05-18T10:41:21Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Opportunistic Federated Learning: An Exploration of Egocentric
Collaboration for Pervasive Computing Applications [20.61034787249924]
我々は、異なるユーザに属する個々のデバイスが堅牢なモデルを学ぶための新しいアプローチ、機会論的フェデレーションラーニングを定義する。
本稿では,このようなアプローチの実現可能性と限界を考察し,出会い型ペアワイド協調学習を支援する枠組みを策定する。
論文 参考訳(メタデータ) (2021-03-24T15:30:21Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。