論文の概要: Why Data Anonymization Has Not Taken Off
- arxiv url: http://arxiv.org/abs/2509.10165v1
- Date: Fri, 12 Sep 2025 11:45:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.070225
- Title: Why Data Anonymization Has Not Taken Off
- Title(参考訳): データ匿名化がうまくいかなかった理由
- Authors: Matthew J. Schneider, James Bailie, Dawn Iacobucci,
- Abstract要約: データ匿名化は、実装が簡単ではないため、実際に始まった。
それぞれのプライバシーのバリエーションは、実際的な意味だけでなく、異なる選択を保証します。
一部のデータ匿名化方法は、必要な洞察だけが保護単位よりもはるかに大きい場合に有効である。
企業は容易な勝利を期待するのではなく、匿名化はデータプライバシに対する一つのアプローチであり、彼ら自身のベスト戦略であることを認識すべきである。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Companies are looking to data anonymization research $\unicode{x2013}$ including differential private and synthetic data methods $\unicode{x2013}$ for simple and straightforward compliance solutions. But data anonymization has not taken off in practice because it is anything but simple to implement. For one, it requires making complex choices which are case dependent, such as the domain of the dataset to anonymize; the units to protect; the scope where the data protection should extend to; and the standard of protection. Each variation of these choices changes the very meaning, as well as the practical implications, of differential privacy (or of any other measure of data anonymization). Yet differential privacy is frequently being branded as the same privacy guarantee regardless of variations in these choices. Some data anonymization methods can be effective, but only when the insights required are much larger than the unit of protection. Given that businesses care about profitability, any solution must preserve the patterns between a firm's data and that profitability. As a result, data anonymization solutions usually need to be bespoke and case-specific, which reduces their scalability. Companies should not expect easy wins, but rather recognize that anonymization is just one approach to data privacy with its own particular advantages and drawbacks, while the best strategies jointly leverage the full range of approaches to data privacy and security in combination.
- Abstract(参考訳): データ匿名化研究の$\unicode{x2013}$には、単純で簡単なコンプライアンスソリューションのための差分プライベートおよび合成データメソッド$\unicode{x2013}$が含まれている。
しかし、データ匿名化は実装が簡単ではないため、実際には離陸していません。
例えば、データセットのドメインを匿名化するための匿名化、保護すべきユニット、データ保護が拡張すべきスコープ、保護の標準などである。
これらの選択のそれぞれのバリエーションは、差分プライバシー(または他のデータ匿名化の指標)の真の意味と実践的な意味を変える。
しかし、差分プライバシーは、これらの選択のバリエーションに関係なく、しばしば同じプライバシー保証としてブランド化されている。
一部のデータ匿名化手法は有効であるが、必要な洞察が保護単位よりもはるかに大きい場合に限られる。
企業は利益性に関心があるので、どんなソリューションでも企業のデータと収益性の間のパターンを保たなければならない。
結果として、データ匿名化ソリューションは通常、そのスケーラビリティを低下させるような、空想的かつケース固有でなければならない。
企業は容易な勝利を期待するのではなく、匿名化はデータプライバシに対する一つのアプローチであり、独自のアドバンテージと欠点がある、と認識するべきだ。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-Preserving Hierarchical Anonymization Framework over Encrypted Data [0.061446808540639365]
本研究では、同型暗号と2種類のドメインからなる秘密共有を用いた階層的k匿名化フレームワークを提案する。
実験により、2つのドメインを接続することで匿名化プロセスが促進され、提案したセキュア階層型アーキテクチャが実用的かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-10-19T01:08:37Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Quantifying identifiability to choose and audit $\epsilon$ in
differentially private deep learning [15.294433619347082]
機械学習で差分プライバシーを使用するには、データサイエンティストがプライバシパラメータを$(epsilon,delta)$を選択する必要がある。
私たちは$(epsilon,delta)$を、トレーニングデータセット内のレコードの存在に関する差分プライバシーによって想定される相手のベイジアン後方信念にバインドに変換します。
我々は、データサイエンティストがモデルのトレーニングを監査し、経験的識別可能性スコアと経験的$(epsilon,delta)$を計算することを可能にするこの差分プライバシーの敵対の実装を策定します。
論文 参考訳(メタデータ) (2021-03-04T09:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。