論文の概要: A Path to Holistic Privacy in Stream Processing Systems
- arxiv url: http://arxiv.org/abs/2305.11638v1
- Date: Fri, 19 May 2023 12:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:26:23.244648
- Title: A Path to Holistic Privacy in Stream Processing Systems
- Title(参考訳): ストリーム処理システムにおけるホロスティックプライバシへの道
- Authors: Mikhail Fomichev
- Abstract要約: 我々は,SPSとIoTの交差点から生じるプライバシー問題について,系統的に考察する。
SPSにおける全体的プライバシ保護の実現に向けた重要な研究課題を特定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The massive streams of Internet of Things (IoT) data require a timely
analysis to retain data usefulness. Stream processing systems (SPSs) enable
this task, deriving knowledge from the IoT data in real-time. Such real-time
analytics benefits many applications but can also be used to violate user
privacy, as the IoT data collected from users or their vicinity is inherently
sensitive. In this paper, we present our systematic look into privacy issues
arising from the intersection of SPSs and IoT, identifying key research
challenges towards achieving holistic privacy protection in SPSs and proposing
the solutions.
- Abstract(参考訳): IoT(Internet of Things)データの巨大なストリームは、データの有用性を維持するために、タイムリーな分析を必要とする。
ストリーム処理システム(SPS)はこのタスクを可能にし、IoTデータからリアルタイムで知識を引き出す。
このようなリアルタイム分析は多くのアプリケーションにメリットがあるが、ユーザやその周辺で収集されたIoTデータは本質的にセンシティブであるため、ユーザのプライバシ違反にも使用できる。
本稿では,SPSとIoTの交差から生じるプライバシ問題について,SPSにおける総合的なプライバシ保護を実現するための重要な研究課題を特定し,その解決策を提案する。
関連論文リスト
- Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Privacy-Preserving Data in IoT-based Cloud Systems: A Comprehensive Survey with AI Integration [0.0]
本調査では,IoTとクラウドシステムの動的交点におけるプライバシ問題の状況について,慎重に調査する。
包括的な文献レビューは、既存の研究を合成し、鍵となる課題を照明し、プライバシー保護技術の新たなトレンドを識別する。
論文 参考訳(メタデータ) (2024-01-01T15:48:39Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Integration of Domain Expert-Centric Ontology Design into the CRISP-DM
for Cyber-Physical Production Systems [63.62764375279861]
機械学習(ML)とデータマイニング(DM)の手法は、収集されたデータから複雑で隠れたパターンを抽出する上で有望であることが証明されている。
しかし、このようなデータ駆動プロジェクトは、通常、CRISPDM(Cross-Industry Standard Process for Data Mining)で実行され、データの理解と準備に要する時間の不均等さのために失敗することが多い。
このコントリビューションは、データサイエンティストがCPPSの課題に対してより迅速かつ確実に洞察を得ることができるように、統合されたアプローチを提供することを目的としている。
論文 参考訳(メタデータ) (2023-07-21T15:04:00Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - Evaluating Privacy-Preserving Machine Learning in Critical
Infrastructures: A Case Study on Time-Series Classification [5.607917328636864]
モデルもデータも、センシティブな情報を抽出するのに使用しないことを確実にすることは、重要なことです。
さまざまな安全クリティカルなユースケース(主に時系列データに依存している)は、現在、プライバシーに関する考慮事項で不足している。
時系列データに適用性に関するいくつかのプライバシー保護手法を評価することにより、深層学習における暗号化の非効率性を検証した。
論文 参考訳(メタデータ) (2021-11-29T12:28:22Z) - Autonomous Maintenance in IoT Networks via AoI-driven Deep Reinforcement
Learning [73.85267769520715]
IoT(Internet of Things)は、デプロイされるデバイスやアプリケーションの数の増加とともに、ネットワークのメンテナンス手順に大きな課題をもたらしている。
部分観測可能なマルコフ決定プロセスとして,IoTネットワークにおける自律的メンテナンスの問題を定式化する。
深層強化学習アルゴリズム (drl) を用いて, 保守手順が整っているか否かを判断するエージェントを訓練し, 前者の場合, 適切なメンテナンス方法が必要となる。
論文 参考訳(メタデータ) (2020-12-31T11:19:51Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z) - Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning [33.42328078385098]
時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
論文 参考訳(メタデータ) (2020-03-04T18:47:25Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。