論文の概要: Modeling interdependent privacy threats
- arxiv url: http://arxiv.org/abs/2505.18386v1
- Date: Fri, 23 May 2025 21:22:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 14:01:16.823902
- Title: Modeling interdependent privacy threats
- Title(参考訳): 相互依存型プライバシー脅威のモデル化
- Authors: Shuaishuai Liu, Gergely Biczók,
- Abstract要約: 我々は、既存の脅威モデリングアプローチは、相互依存のプライバシー脅威を露呈することに制限されていると論じる。
i)現在の脅威モデリングフレームワークにおけるIDP固有の課題と制限を特定し、(ii)IDPAを作成し、(iii)WeChatのケーススタディを通じてアプローチを検証する。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rise of online social networks, user-gene-rated content, and third-party apps made data sharing an inevitable trend, driven by both user behavior and the commercial value of personal information. As service providers amass vast amounts of data, safeguarding individual privacy has become increasingly challenging. Privacy threat modeling has emerged as a critical tool for identifying and mitigating risks, with methodologies such as LINDDUN, xCOMPASS, and PANOPTIC offering systematic approaches. However, these frameworks primarily focus on threats arising from interactions between a single user and system components, often overlooking interdependent privacy (IDP); the phenomenon where one user's actions affect the privacy of other users and even non-users. IDP risks are particularly pronounced in third-party applications, where platform permissions, APIs, and user behavior can lead to unintended and unconsented data sharing, such as in the Cambridge Analytica case. We argue that existing threat modeling approaches are limited in exposing IDP-related threats, potentially underestimating privacy risks. To bridge this gap, we propose a specialized methodology that explicitly focuses on interdependent privacy. Our contributions are threefold: (i) we identify IDP-specific challenges and limitations in current threat modeling frameworks, (ii) we create IDPA, a threat modeling approach tailored to IDP threats, and (iii) we validate our approach through a case study on WeChat. We believe that IDPA can operate effectively on systems other than third-party apps and may motivate further research on specialized threat modeling.
- Abstract(参考訳): オンラインソーシャルネットワーク、ユーザー生成コンテンツ、サードパーティアプリの台頭により、ユーザーの行動と個人情報の商業的価値の両方によって、データの共有は必然的なトレンドとなった。
サービスプロバイダーが膨大なデータを収集するにつれ、個人のプライバシーを守ることはますます困難になっている。
プライバシ脅威モデリングは、LINDDUN、xCOMPASS、PANOPTICなどの方法論が体系的なアプローチを提供する、リスクを特定し緩和するための重要なツールとして登場した。
しかしながら、これらのフレームワークは主に、単一のユーザとシステムコンポーネント間のインタラクションから生じる脅威に焦点を当てており、多くの場合、あるユーザのアクションが他のユーザや非ユーザのプライバシに影響を与える現象である、相互依存プライバシ(IDP)を見落としている。
特にIDPのリスクは、プラットフォームパーミッション、API、ユーザの振る舞いが、Cambridge Analyticaのような意図しない、あるいは合意のないデータ共有につながる、サードパーティアプリケーションで顕著である。
我々は、既存の脅威モデリングアプローチは、IDP関連の脅威を暴露することに制限があり、プライバシーリスクを過小評価する可能性があると論じている。
このギャップを埋めるために、我々は、相互依存のプライバシーに明示的に焦点をあてる特殊な方法論を提案する。
私たちの貢献は3倍です。
i)現在の脅威モデリングフレームワークにおけるIDP固有の課題と限界を識別する。
(二)IDPA、IDPの脅威に合わせた脅威モデリングアプローチを作成し、
3)WeChatのケーススタディを通じて,本手法の有効性を検証した。
我々は、IDPAがサードパーティアプリ以外のシステムで効果的に動作し、特別な脅威モデリングに関するさらなる研究を動機付けることができると考えている。
関連論文リスト
- Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - IDPFilter: Mitigating Interdependent Privacy Issues in Third-Party Apps [0.30693357740321775]
サードパーティアプリがIDP(Interdependent Privacy)への懸念を強めている
本報告では,サードパーティアプリのIDP問題に関して,これまで未検討であった問題を包括的に調査する。
IDPFilterは,アプリケーションプロバイダが情報収集を最小化するためのプラットフォームに依存しないAPIである。
論文 参考訳(メタデータ) (2024-05-02T16:02:13Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Target Privacy Threat Modeling for COVID-19 Exposure Notification
Systems [8.080564346335542]
デジタル接触追跡(DCT)技術は感染症の拡散を遅らせるのに役立っている。
倫理的技術デプロイメントとユーザ採用の両方をサポートするためには、プライバシが最前線にある必要があります。
プライバシーの喪失は重大な脅威であり、徹底的な脅威モデリングは、DCT技術が進歩するにつれて、プライバシーの強化と保護に役立ちます。
論文 参考訳(メタデータ) (2020-09-25T02:09:51Z) - Epidemic mitigation by statistical inference from contact tracing data [61.04165571425021]
我々は,個人が感染するリスクを推定するためにベイズ推定法を開発した。
本稿では,感染防止のための検査・隔離戦略を最適化するために,確率論的リスク推定手法を提案する。
我々のアプローチは、最近接触した個人間の通信のみを必要とする、完全に分散されたアルゴリズムに変換されます。
論文 参考訳(メタデータ) (2020-09-20T12:24:45Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。