論文の概要: Privacy Engineering in Smart Home (SH) Systems: A Comprehensive Privacy Threat Analysis and Risk Management Approach
- arxiv url: http://arxiv.org/abs/2401.09519v1
- Date: Wed, 17 Jan 2024 17:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 12:17:56.145746
- Title: Privacy Engineering in Smart Home (SH) Systems: A Comprehensive Privacy Threat Analysis and Risk Management Approach
- Title(参考訳): スマートホーム(SH)システムにおけるプライバシエンジニアリング : 包括的プライバシ脅威分析とリスク管理アプローチ
- Authors: Emmanuel Dare Alalade, Mohammed Mahyoub, Ashraf Matrawy,
- Abstract要約: 本研究の目的は、SHシステムにおけるプライバシ制御の主な脅威、関連するリスク、および効果的なプライバシ制御の優先順位付けを解明することである。
この研究の結果は、SHシステムドメイン内のベンダー、クラウドプロバイダ、ユーザ、研究者、規制機関を含むSH利害関係者に恩恵をもたらすことが期待されている。
- 参考スコア(独自算出の注目度): 1.0650780147044159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Addressing trust concerns in Smart Home (SH) systems is imperative due to the limited study on preservation approaches that focus on analyzing and evaluating privacy threats for effective risk management. While most research focuses primarily on user privacy, device data privacy, especially identity privacy, is almost neglected, which can significantly impact overall user privacy within the SH system. To this end, our study incorporates privacy engineering (PE) principles in the SH system that consider user and device data privacy. We start with a comprehensive reference model for a typical SH system. Based on the initial stage of LINDDUN PRO for the PE framework, we present a data flow diagram (DFD) based on a typical SH reference model to better understand SH system operations. To identify potential areas of privacy threat and perform a privacy threat analysis (PTA), we employ the LINDDUN PRO threat model. Then, a privacy impact assessment (PIA) was carried out to implement privacy risk management by prioritizing privacy threats based on their likelihood of occurrence and potential consequences. Finally, we suggest possible privacy enhancement techniques (PETs) that can mitigate some of these threats. The study aims to elucidate the main threats to privacy, associated risks, and effective prioritization of privacy control in SH systems. The outcomes of this study are expected to benefit SH stakeholders, including vendors, cloud providers, users, researchers, and regulatory bodies in the SH systems domain.
- Abstract(参考訳): スマートホーム(SH)システムにおける信頼関係への対処は、効果的なリスク管理のためのプライバシ脅威を分析し評価することに焦点を当てた保存的アプローチの限定的な研究のため、不可欠である。
ほとんどの研究はユーザのプライバシに重点を置いているが、デバイスデータのプライバシ、特にIDプライバシはほぼ無視されているため、SHシステム全体のプライバシに大きな影響を与える可能性がある。
そこで本研究では,ユーザおよびデバイスデータのプライバシを考慮したSHシステムに,プライバシエンジニアリング(PE)の原則を取り入れた。
まず、一般的なSHシステムの包括的な参照モデルから始める。
PEフレームワークのLINDDUN PROの初期段階に基づいて、典型的なSH参照モデルに基づくデータフロー図(DFD)を示し、SHシステム操作をよりよく理解する。
プライバシ脅威の潜在的な領域を特定し、プライバシ脅威分析(PTA)を行うために、LINDDUN PRO脅威モデルを用いる。
その後,プライバシ・インパクト・アセスメント(PIA)を実施し,プライバシ・リスク・マネジメントの実現に向けて,プライバシ・リスク・アセスメント(プライバシ・インパクト・アセスメント,プライバシ・インパクト・アセスメント,プライバシ・リスク・マネジメント,プライバシ・リスク・マネジメント,プライバシ・リスク・マネジメント,プライバシ・リスク・アセスメント,プライバシ・リスク・アセスメント,プライバシ・アセスメント,プライバシ・アセスメント,プライバシ・アセスメント,プライバシ・アセスメント
最後に、これらの脅威のいくつかを緩和できるプライバシー強化技術(PET)を提案する。
この研究は、SHシステムにおけるプライバシー管理の主な脅威、関連するリスク、および効果的なプライバシ制御の優先順位付けを解明することを目的としている。
この研究の結果は、SHシステムドメイン内のベンダー、クラウドプロバイダ、ユーザ、研究者、規制機関を含むSH利害関係者に恩恵をもたらすことが期待されている。
関連論文リスト
- Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology [0.0]
プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
論文 参考訳(メタデータ) (2023-08-24T01:32:35Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - Understanding Ethics, Privacy, and Regulations in Smart Video
Surveillance for Public Safety [2.4956060473718407]
本稿では,スマートビデオサーベイランス(SVS)システムにおける倫理的・プライバシー的課題を考慮した設計の役割に焦点を当てる。
我々は、オブジェクト検出、シングルカメラとマルチカメラの再識別、アクション認識、異常検出など、いくつかの人工知能アルゴリズムを使用して、基本的な機能システムを提供する。
論文 参考訳(メタデータ) (2022-12-25T17:14:18Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Target Privacy Threat Modeling for COVID-19 Exposure Notification
Systems [8.080564346335542]
デジタル接触追跡(DCT)技術は感染症の拡散を遅らせるのに役立っている。
倫理的技術デプロイメントとユーザ採用の両方をサポートするためには、プライバシが最前線にある必要があります。
プライバシーの喪失は重大な脅威であり、徹底的な脅威モデリングは、DCT技術が進歩するにつれて、プライバシーの強化と保護に役立ちます。
論文 参考訳(メタデータ) (2020-09-25T02:09:51Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。