論文の概要: Privacy Risk Predictions Based on Fundamental Understanding of Personal Data and an Evolving Threat Landscape
- arxiv url: http://arxiv.org/abs/2508.04542v1
- Date: Wed, 06 Aug 2025 15:30:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.787557
- Title: Privacy Risk Predictions Based on Fundamental Understanding of Personal Data and an Evolving Threat Landscape
- Title(参考訳): 個人情報の基本的な理解と脅威景観の進化に基づくプライバシリスク予測
- Authors: Haoran Niu, K. Suzanne Barber,
- Abstract要約: 本研究は、どのような個人データが暴露されるか、どの程度の頻度で暴露されるかを明らかにする。
グラフ理論とグラフニューラルネットワークを用いたプライバシーリスク予測フレームワークを開発した。
その結果、我々のアプローチは、あるアイデンティティ属性の開示は、おそらく別の属性の開示につながるのか?
- 参考スコア(独自算出の注目度): 0.7941906315308261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is difficult for individuals and organizations to protect personal information without a fundamental understanding of relative privacy risks. By analyzing over 5,000 empirical identity theft and fraud cases, this research identifies which types of personal data are exposed, how frequently exposures occur, and what the consequences of those exposures are. We construct an Identity Ecosystem graph--a foundational, graph-based model in which nodes represent personally identifiable information (PII) attributes and edges represent empirical disclosure relationships between them (e.g., the probability that one PII attribute is exposed due to the exposure of another). Leveraging this graph structure, we develop a privacy risk prediction framework that uses graph theory and graph neural networks to estimate the likelihood of further disclosures when certain PII attributes are compromised. The results show that our approach effectively answers the core question: Can the disclosure of a given identity attribute possibly lead to the disclosure of another attribute?
- Abstract(参考訳): 個人や組織にとって、相対的なプライバシーリスクの根本的な理解なしに個人情報を保護することは困難である。
5000件以上の個人情報盗難と詐欺事件を分析して、どのような個人情報が暴露されているか、どの程度の頻度で暴露されたか、そしてそれらの暴露の結果がどうなるかを明らかにする。
ノードが個人識別可能な情報(PII)の属性を表現し、エッジがそれらの間の経験的開示関係を表す基本的グラフベースのモデルを構築する(例えば、あるPII属性が他の属性の露出によって露出される確率)。
このグラフ構造を利用して、グラフ理論とグラフニューラルネットワークを用いて、特定のPII属性が損なわれた場合のさらなる開示の可能性を推定するプライバシーリスク予測フレームワークを開発する。
その結果、我々のアプローチは、あるアイデンティティ属性の開示は、おそらく別の属性の開示につながるのか?
関連論文リスト
- A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Ex-Ante Assessment of Discrimination in Dataset [20.574371560492494]
データ所有者は、自分たちのデータの使用が過小評価されているコミュニティにどのように害を与えるかという責任を負う。
本稿では, 個人の反応が感性特性によってどの程度異なるかを示すスコアを生成する, 決定トレエのForest of decision trEEsアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:28:22Z) - PRIVEE: A Visual Analytic Workflow for Proactive Privacy Risk Inspection
of Open Data [3.2136309934080867]
個人情報を含むオープンデータセットは、匿名化しても敵攻撃の影響を受けやすい。
我々は、ローカルで結合可能なデータ地区における開示リスクを、データディフェンダーが認識できるようにするビジュアル分析ソリューションを開発した。
我々はこの問題とドメイン特性を用いて、防御機構としての視覚的分析的介入のセットを開発する。
論文 参考訳(メタデータ) (2022-08-12T19:57:09Z) - Privacy-preserving Graph Analytics: Secure Generation and Federated
Learning [72.90158604032194]
我々は、リッチな属性と関係を表現する重要な能力を提供するグラフデータのプライバシー保護分析に焦点を当てる。
本稿では,プライバシ保護グラフ生成とフェデレーショングラフ学習という2つの方向性について論じる。
論文 参考訳(メタデータ) (2022-06-30T18:26:57Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - AI-based Re-identification of Behavioral Clickstream Data [0.0]
本論文は, 行動パターンに基づいて, 個人を純粋に同定する上で, 同様の手法が適用可能であることを実証する。
レコード間の振舞いパターンの単なる類似性は、識別された個人に振舞いデータを正しく属性付けるのに十分である。
また、私たちが導入したAIベースの再識別攻撃に対して回復力があることが示されています。
論文 参考訳(メタデータ) (2022-01-21T16:49:00Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。