論文の概要: Privacy Engineering in Smart Home (SH) Systems: A Comprehensive Privacy Threat Analysis and Risk Management Approach
- arxiv url: http://arxiv.org/abs/2401.09519v1
- Date: Wed, 17 Jan 2024 17:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 12:17:56.145746
- Title: Privacy Engineering in Smart Home (SH) Systems: A Comprehensive Privacy Threat Analysis and Risk Management Approach
- Title(参考訳): スマートホーム(SH)システムにおけるプライバシエンジニアリング : 包括的プライバシ脅威分析とリスク管理アプローチ
- Authors: Emmanuel Dare Alalade, Mohammed Mahyoub, Ashraf Matrawy,
- Abstract要約: 本研究の目的は、SHシステムにおけるプライバシ制御の主な脅威、関連するリスク、および効果的なプライバシ制御の優先順位付けを解明することである。
この研究の結果は、SHシステムドメイン内のベンダー、クラウドプロバイダ、ユーザ、研究者、規制機関を含むSH利害関係者に恩恵をもたらすことが期待されている。
- 参考スコア(独自算出の注目度): 1.0650780147044159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Addressing trust concerns in Smart Home (SH) systems is imperative due to the limited study on preservation approaches that focus on analyzing and evaluating privacy threats for effective risk management. While most research focuses primarily on user privacy, device data privacy, especially identity privacy, is almost neglected, which can significantly impact overall user privacy within the SH system. To this end, our study incorporates privacy engineering (PE) principles in the SH system that consider user and device data privacy. We start with a comprehensive reference model for a typical SH system. Based on the initial stage of LINDDUN PRO for the PE framework, we present a data flow diagram (DFD) based on a typical SH reference model to better understand SH system operations. To identify potential areas of privacy threat and perform a privacy threat analysis (PTA), we employ the LINDDUN PRO threat model. Then, a privacy impact assessment (PIA) was carried out to implement privacy risk management by prioritizing privacy threats based on their likelihood of occurrence and potential consequences. Finally, we suggest possible privacy enhancement techniques (PETs) that can mitigate some of these threats. The study aims to elucidate the main threats to privacy, associated risks, and effective prioritization of privacy control in SH systems. The outcomes of this study are expected to benefit SH stakeholders, including vendors, cloud providers, users, researchers, and regulatory bodies in the SH systems domain.
- Abstract(参考訳): スマートホーム(SH)システムにおける信頼関係への対処は、効果的なリスク管理のためのプライバシ脅威を分析し評価することに焦点を当てた保存的アプローチの限定的な研究のため、不可欠である。
ほとんどの研究はユーザのプライバシに重点を置いているが、デバイスデータのプライバシ、特にIDプライバシはほぼ無視されているため、SHシステム全体のプライバシに大きな影響を与える可能性がある。
そこで本研究では,ユーザおよびデバイスデータのプライバシを考慮したSHシステムに,プライバシエンジニアリング(PE)の原則を取り入れた。
まず、一般的なSHシステムの包括的な参照モデルから始める。
PEフレームワークのLINDDUN PROの初期段階に基づいて、典型的なSH参照モデルに基づくデータフロー図(DFD)を示し、SHシステム操作をよりよく理解する。
プライバシ脅威の潜在的な領域を特定し、プライバシ脅威分析(PTA)を行うために、LINDDUN PRO脅威モデルを用いる。
その後,プライバシ・インパクト・アセスメント(PIA)を実施し,プライバシ・リスク・マネジメントの実現に向けて,プライバシ・リスク・アセスメント(プライバシ・インパクト・アセスメント,プライバシ・インパクト・アセスメント,プライバシ・リスク・マネジメント,プライバシ・リスク・マネジメント,プライバシ・リスク・マネジメント,プライバシ・リスク・アセスメント,プライバシ・リスク・アセスメント,プライバシ・アセスメント,プライバシ・アセスメント,プライバシ・アセスメント,プライバシ・アセスメント
最後に、これらの脅威のいくつかを緩和できるプライバシー強化技術(PET)を提案する。
この研究は、SHシステムにおけるプライバシー管理の主な脅威、関連するリスク、および効果的なプライバシ制御の優先順位付けを解明することを目的としている。
この研究の結果は、SHシステムドメイン内のベンダー、クラウドプロバイダ、ユーザ、研究者、規制機関を含むSH利害関係者に恩恵をもたらすことが期待されている。
関連論文リスト
- Differentially Private Integrated Decision Gradients (IDG-DP) for Radar-based Human Activity Recognition [5.955900146668931]
近年の研究では、レーダー歩行パターンから被写体や性別を認識する上で高い精度が示され、プライバシーの懸念が高まっている。
本研究では,レーダベースヒューマンアクティビティ認識(HAR)システムにおけるプライバシ脆弱性を調査することによって,これらの問題に対処する。
本稿では,IDGアルゴリズムによって導かれる属性によって駆動される差分プライバシー(DP)を用いた新たなプライバシー保護手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T14:08:26Z) - A Deep Dive into Fairness, Bias, Threats, and Privacy in Recommender Systems: Insights and Future Research [45.86892639035389]
本研究では,推薦システムにおける公正性,バイアス,脅威,プライバシについて検討する。
アルゴリズムによる決定が、意図せずバイアスを強化したり、特定のユーザやアイテムグループを疎外したりする方法について検討する。
この研究は、推薦システムの堅牢性、公正性、プライバシーを改善するための今後の研究の方向性を示唆している。
論文 参考訳(メタデータ) (2024-09-19T11:00:35Z) - Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Target Privacy Threat Modeling for COVID-19 Exposure Notification
Systems [8.080564346335542]
デジタル接触追跡(DCT)技術は感染症の拡散を遅らせるのに役立っている。
倫理的技術デプロイメントとユーザ採用の両方をサポートするためには、プライバシが最前線にある必要があります。
プライバシーの喪失は重大な脅威であり、徹底的な脅威モデリングは、DCT技術が進歩するにつれて、プライバシーの強化と保護に役立ちます。
論文 参考訳(メタデータ) (2020-09-25T02:09:51Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。